ИИ проявляет систематические предубеждения при оценке людей
Исследование, проведенное специалистами Еврейского университета в Иерусалиме и опубликованное в Proceedings of the Royal Society, ставит под сомнение распространенное мнение об объективности алгоритмов. Работа демонстрирует, что системы искусственного интеллекта склонны к предсказуемым и системным искажениям при оценке людей — причем эти паттерны часто выражены сильнее, чем аналогичные когнитивные ловушки у человека.
Механика принятия решений
В ходе экспериментов ученые анализировали, как модели ИИ интерпретируют сигналы доверия и надежности. Участникам предлагалось оценить поведение людей в различных ситуациях, после чего алгоритмы обучались воспроизводить эти суждения. Выяснилось, что ИИ опирается на эвристики — упрощенные правила обработки данных — так же, как и мы. Однако на практике ИИ делает это гораздо жестче. Если говорить проще, нейросеть воспринимает человеческое поведение как электронную таблицу, игнорируя контекст и нюансы, которые обычно учитывает живой человек.
Системный масштаб искажений
Ведущий автор работы доктор Сара Чен называет выявленные ошибки системными, а не случайными. Поскольку алгоритмы эффективно выявляют закономерности, они способны не просто дублировать существующие в обществе предрассудки, но и масштабировать их. Проблема заключается в том, что механический характер принятия решений делает такие искажения труднообнаружимыми и сложными для корректировки.
Риски в критических сферах
Результаты исследования имеют прикладное значение для отраслей, где автоматизация заменяет экспертную оценку. Например, в финансовом секторе модели ИИ вычисляют кредитоспособность или выявляют мошенничество, а в HR-технологиях — фильтруют резюме. Если коротко, автоматизированные системы рискуют закрепить и усугубить социальное неравенство, просто потому что они «обучены» на данных, содержащих исторические стереотипы.
Пути к прозрачности
Авторы работы настаивают, что отказ от внедрения ИИ не является решением. Речь идет о повышении прозрачности и подотчетности систем. Разработчикам и регуляторам предлагается внедрять регулярный аудит моделей на предмет паттернов предвзятости, работать над качеством и разнообразием обучающих выборок, а также проектировать архитектуры, способные учитывать контекстуальную сложность задач. Финальной целью должна стать синергия, при которой алгоритмы дополняют человеческое суждение, а не пытаются полностью его подменить.