Вы для него просто таблица: популярный ИИ выносит приговоры человечеству без капли эмпатии
ИИ-алгоритмы становятся токсичнее людей (фото: FreePik)
Новое исследование ученых из Иерусалима показало, что нейросети вроде ChatGPT оценивают людей без всяких чувств, используя только сухие цифры. Ученые считают это тревожной тенденцией, ведь машина чаще человека становится предвзятой.
В теме разбиралось РБК-Украина со ссылкой на работу ученых, опубликованную в журнале Proceedings of the Royal Society A Mathematical Physical and Engineering Science.
ИИ учится "доверять" людям?
Исследователи профессор Янов Довер и Валерия Лерман проанализировали более 43 000 симуляций с участием ИИ и тысячи людей. Они обнаружили, что современные системы не просто обрабатывают информацию, а формируют своеобразное "доверие" к человеку.
ИИ, как и люди, предпочитает тех, кто кажется компетентным, честным и доброжелательным. Однако на этом сходство заканчивается.
Ключевые различия в оценке
- Фрагментарность против целостности: люди судят других интуитивно и комплексно. ИИ действует иначе: он разбивает личность на отдельные компоненты (компетентность, честность, доброта) и выставляет баллы по каждому пункту отдельно, как в таблице Excel.
- Усиление предубеждений: в финансовых сценариях ИИ показал значительные расхождения в решениях, основанных только на демографических признаках. Например, религия и пол существенно влияли на то, получит ли человек кредит или пожертвование, даже если все остальные данные были идентичными.
- Различные моральные компасы: две разные модели ИИ (например, GPT против Gemini) могут выносить диаметрально противоположные вердикты одному и тому же человеку. То, что одна система поощряет, другая может считать недостатком.
Почему это важно уже сейчас?
ИИ уже используется для оценки кандидатов на работу, кредитоспособности и предоставления медицинских рекомендаций. Поскольку ИИ-системы превращаются из ассистентов в "лиц, принимающих решения", понимание их логики становится критическим.
Ученые отмечают: ИИ может копировать структуру человеческих рассуждений, но он делает это жестко и с предубеждениями, которые трудно обнаружить. Следует осознать: машина не видит в нас людей - она видит лишь набор статистических данных.
Читайте еще больше интересного: