Новое исследование ученых из Иерусалима показало, что нейросети вроде ChatGPT оценивают людей без всяких чувств, используя только сухие цифры. Ученые считают это тревожной тенденцией, ведь машина чаще человека становится предвзятой.
В теме разбиралось РБК-Украина со ссылкой на работу ученых, опубликованную в журнале Proceedings of the Royal Society A Mathematical Physical and Engineering Science.
Исследователи профессор Янов Довер и Валерия Лерман проанализировали более 43 000 симуляций с участием ИИ и тысячи людей. Они обнаружили, что современные системы не просто обрабатывают информацию, а формируют своеобразное "доверие" к человеку.
ИИ, как и люди, предпочитает тех, кто кажется компетентным, честным и доброжелательным. Однако на этом сходство заканчивается.
ИИ уже используется для оценки кандидатов на работу, кредитоспособности и предоставления медицинских рекомендаций. Поскольку ИИ-системы превращаются из ассистентов в "лиц, принимающих решения", понимание их логики становится критическим.
Ученые отмечают: ИИ может копировать структуру человеческих рассуждений, но он делает это жестко и с предубеждениями, которые трудно обнаружить. Следует осознать: машина не видит в нас людей - она видит лишь набор статистических данных.
Читайте еще больше интересного: