ua en ru

Популярный ИИ навязывает опасные стереотипы: что обнаружили ученые

08:14 24.04.2026 Пт
2 мин
ИИ незаметно усиливает опасные стереотипы, которые могут искажать ваши решения и даже угрожать жизни
Популярный ИИ навязывает опасные стереотипы: что обнаружили ученые Разоблачена опасная проблема ChatGPT (фото: FreePik)

Популярные модели массово транслируют скрытые предубеждения, которые почти невозможно заметить обычному пользователю. От ассоциаций "врач - он" до серьезных ошибок в лечении женщин - ИИ не просто копирует данные, а структурирует их таким образом, чтобы закреплять социальное неравенство.

Об этом информирует РБК-Украина со ссылкой на научное исследование, опубликованное Университетом Амстердама.

Как ИИ учится дискриминации?

Исследователь Оскар ван дер Вал обнаружил, что предубеждения у ИИ значительно глубже, чем кажется. Традиционные тесты их пропускают, ведь нейросети маскируют стереотипы под контекст.

Какие угрозы возникают?

Риск в медицине - ИИ, обученный преимущественно на данных мужчин, может игнорировать симптомы у женщин или ставить ошибочные диагнозы людям разного этнического происхождения.

Глобальное влияние - ИИ-модели структурируют информацию так, что стереотипы сохраняются во все более специфических участках кода. Ученые уверены: это только усиливает стереотипное "мышление" ИИ со временем.

Лишение объективности - поскольку эти процессы скрыты, пользователи подсознательно начинают воспринимать искаженные ответы ИИ как истину.

Можно ли остановить ИИ-манипуляции?

Ученые доказали: исправить ситуацию любым "трюком" невозможно, однако точечные вмешательства дают ощутимый результат.

Что предлагают ученые:

Реалистичные сценарии - ИИ будут проверять через сложные медицинские кейсы, где изменение только одного параметра (например, пола пациента) мгновенно разоблачает скрытую дискриминацию.

Адресное "лечение" кода - зная, где именно в ИИ-модели локализованы предубеждения, разработчики могут корректировать эти зоны без потери качества генерирования текста.

Контроль на многих уровнях сразу - безопасный ИИ требует проверки на всех этапах: от отбора данных для обучения до момента выдачи ответа пользователю.

"Сегодня общество становится критически зависимым от алгоритмов, которые могут незаметно управлять нашим мышлением", - предупреждают исследователи.

Работа амстердамских ученых доказывает: если не начать очистку языковых моделей от стереотипов уже сейчас, ИИ превратится из помощника в источник массовых манипуляций и опасных ошибок в жизненно важных сферах.

Или читайте нас там, где вам удобно!
Больше по теме: