Популярный ИИ навязывает опасные стереотипы: что обнаружили ученые
Разоблачена опасная проблема ChatGPT (фото: FreePik)
Популярные модели массово транслируют скрытые предубеждения, которые почти невозможно заметить обычному пользователю. От ассоциаций "врач - он" до серьезных ошибок в лечении женщин - ИИ не просто копирует данные, а структурирует их таким образом, чтобы закреплять социальное неравенство.
Об этом информирует РБК-Украина со ссылкой на научное исследование, опубликованное Университетом Амстердама.
Как ИИ учится дискриминации?
Исследователь Оскар ван дер Вал обнаружил, что предубеждения у ИИ значительно глубже, чем кажется. Традиционные тесты их пропускают, ведь нейросети маскируют стереотипы под контекст.
Какие угрозы возникают?
Риск в медицине - ИИ, обученный преимущественно на данных мужчин, может игнорировать симптомы у женщин или ставить ошибочные диагнозы людям разного этнического происхождения.
Глобальное влияние - ИИ-модели структурируют информацию так, что стереотипы сохраняются во все более специфических участках кода. Ученые уверены: это только усиливает стереотипное "мышление" ИИ со временем.
Лишение объективности - поскольку эти процессы скрыты, пользователи подсознательно начинают воспринимать искаженные ответы ИИ как истину.
Можно ли остановить ИИ-манипуляции?
Ученые доказали: исправить ситуацию любым "трюком" невозможно, однако точечные вмешательства дают ощутимый результат.
Что предлагают ученые:
Реалистичные сценарии - ИИ будут проверять через сложные медицинские кейсы, где изменение только одного параметра (например, пола пациента) мгновенно разоблачает скрытую дискриминацию.
Адресное "лечение" кода - зная, где именно в ИИ-модели локализованы предубеждения, разработчики могут корректировать эти зоны без потери качества генерирования текста.
Контроль на многих уровнях сразу - безопасный ИИ требует проверки на всех этапах: от отбора данных для обучения до момента выдачи ответа пользователю.
"Сегодня общество становится критически зависимым от алгоритмов, которые могут незаметно управлять нашим мышлением", - предупреждают исследователи.
Работа амстердамских ученых доказывает: если не начать очистку языковых моделей от стереотипов уже сейчас, ИИ превратится из помощника в источник массовых манипуляций и опасных ошибок в жизненно важных сферах.