ИИ, который принято считать беспристрастным, на самом деле склонен повторять и даже усиливать человеческие ошибки. Анализируя работу алгоритмов в сфере найма, финансов и судопроизводства, ученые пришли к выводу: машина не создает новые предубеждения, а лишь "наследует" их из общественной истории.
Об этом информирует РБК-Украина со ссылкой на Techxsplore.
Исследователи объясняют: главная проблема заключается в данных, на которых тренируют нейросети. Например, если компания в прошлом реже продвигала женщин по службе, ИИ изучит эту закономерность и начнет автоматически отдавать предпочтение мужчинам в будущем, даже если ему прямо не указывали на пол кандидатов.
Наследственность: ИИ не придумывает дискриминацию - он ее перенимает из опыта предыдущих человеческих решений.
Эффект "объективности": из-за того, что решения выдает компьютер, люди склонны воспринимать их как безоговорочную истину, не замечая заложенных в программу ошибок.
Стандартные проверки алгоритмов обычно фокусируются только на одном признаке, например, только на поле или расе. Однако ученые отмечают, что в реальной жизни эти характеристики пересекаются, создавая сложные формы дискриминации.
Скрытые ошибки: система может казаться честной, если сравнивать мужчин и женщин отдельно, но при этом систематически отклонять заявки старших женщин из национальных меньшинств.
Нехватка релевантных кейсов: поскольку такие подгруппы обычно небольшие, алгоритм не видит достаточно примеров для обучения. В результате он просто применяет к ним общие шаблоны, которые могут быть абсолютно некорректными.
В банковской сфере ИИ часто трактует низкий доход или короткую кредитную историю как признак ненадежности. Однако часто это лишь следствие того, что определенные общины исторически имели меньше доступа к финансовым услугам. В результате человек, который реально способен выплатить кредит, получает отказ только потому, что машина считает его социальную группу "рискованной".
Специалисты отмечают, что справедливость - это не математическое уравнение, которое можно решить один раз. Это непрерывный процесс, который должен включать:
Привлечение общин: влиять на разработку алгоритмов должны не только технические специалисты, но и люди, чьи интересы эти системы затрагивают.
Постоянный мониторинг: общество меняется, и то, что было приемлемым сегодня, может стать источником вреда уже завтра.
Ответственность: компании должны иметь механизмы исправления или даже полного отключения предвзятых ИИ-систем.
"Вопрос теперь не в том, может ли ИИ быть идеально честным, а в том, кто будет контролировать эти алгоритмы и как заставить их работать на пользу всего общества, а не только большинства", - заключают ученые.