ua en ru

Ученые обнаружили опасную черту ИИ: алгоритмы перенимают человеческие предубеждения

19:13 13.05.2026 Ср
3 мин
Ученые утверждают, что ИИ просто копирует несправедливые решения людей из прошлого
Ученые обнаружили опасную черту ИИ: алгоритмы перенимают человеческие предубеждения История неравенства попадает в программный код (фото: Unsplash)

ИИ, который принято считать беспристрастным, на самом деле склонен повторять и даже усиливать человеческие ошибки. Анализируя работу алгоритмов в сфере найма, финансов и судопроизводства, ученые пришли к выводу: машина не создает новые предубеждения, а лишь "наследует" их из общественной истории.

Почему ИИ ошибается?

Исследователи объясняют: главная проблема заключается в данных, на которых тренируют нейросети. Например, если компания в прошлом реже продвигала женщин по службе, ИИ изучит эту закономерность и начнет автоматически отдавать предпочтение мужчинам в будущем, даже если ему прямо не указывали на пол кандидатов.

Наследственность: ИИ не придумывает дискриминацию - он ее перенимает из опыта предыдущих человеческих решений.

Эффект "объективности": из-за того, что решения выдает компьютер, люди склонны воспринимать их как безоговорочную истину, не замечая заложенных в программу ошибок.

Проблема "невидимых" меньшинств и "стеклянных потолков"

Стандартные проверки алгоритмов обычно фокусируются только на одном признаке, например, только на поле или расе. Однако ученые отмечают, что в реальной жизни эти характеристики пересекаются, создавая сложные формы дискриминации.

Скрытые ошибки: система может казаться честной, если сравнивать мужчин и женщин отдельно, но при этом систематически отклонять заявки старших женщин из национальных меньшинств.

Нехватка релевантных кейсов: поскольку такие подгруппы обычно небольшие, алгоритм не видит достаточно примеров для обучения. В результате он просто применяет к ним общие шаблоны, которые могут быть абсолютно некорректными.

Деньги и кредиты: цена ошибки алгоритма

В банковской сфере ИИ часто трактует низкий доход или короткую кредитную историю как признак ненадежности. Однако часто это лишь следствие того, что определенные общины исторически имели меньше доступа к финансовым услугам. В результате человек, который реально способен выплатить кредит, получает отказ только потому, что машина считает его социальную группу "рискованной".

Возможно ли научить ИИ справедливости?

Специалисты отмечают, что справедливость - это не математическое уравнение, которое можно решить один раз. Это непрерывный процесс, который должен включать:

Привлечение общин: влиять на разработку алгоритмов должны не только технические специалисты, но и люди, чьи интересы эти системы затрагивают.

Постоянный мониторинг: общество меняется, и то, что было приемлемым сегодня, может стать источником вреда уже завтра.

Ответственность: компании должны иметь механизмы исправления или даже полного отключения предвзятых ИИ-систем.

"Вопрос теперь не в том, может ли ИИ быть идеально честным, а в том, кто будет контролировать эти алгоритмы и как заставить их работать на пользу всего общества, а не только большинства", - заключают ученые.

Или читайте нас там, где вам удобно!
Больше по теме: