Нове дослідження вчених із Єрусалима показало, що нейромережі на кшталт ChatGPT оцінюють людей без жодних почуттів, використовуючи лише сухі цифри. Вчені вважають це тривожною тенденцією, адже машина частіше за людину стає упередженою.
У темі розбиралося РБК-Україна з посиланням на роботу науковців, опубліковану у журналі Proceedings of the Royal Society A Mathematical Physical and Engineering Science.
Дослідники професор Янів Довер та Валерія Лерман проаналізували понад 43 000 симуляцій за участю ШІ та тисячі людей. Вони виявили, що сучасні системи не просто обробляють інформацію, а формують своєрідну "довіру" до людини.
ШІ, як і люди, надає перевагу тим, хто здається компетентним, чесним та доброзичливим. Проте на цьому схожість закінчується.
ШІ вже використовується для оцінки кандидатів на роботу, кредитоспроможності та надання медичних рекомендацій. Оскільки ШІ-системи перетворюються з асистентів на "осіб, які приймають рішення", розуміння їхньої логіки стає критичним.
Вчені наголошують: ШІ може копіювати структуру людських міркувань, але він робить це жорстко та з упередженнями, які важко виявити. Слід усвідомити: машина не бачить у нас людей - вона бачить лише набір статистичних даних.