Дослідники з Університету Пенсильванії виявили критичну системну помилку у роботі з ШІ. Масштабне тестування показало, що користувачі масово делегують складні завдання нейромережам, повністю відмовляючись від перевірки результатів.
Про це пише РБК-Україна з посиланням на наукову роботу "Мислення - швидке, повільне та штучне: як штучний інтелект змінює людське мислення та зростання когнітивної капітуляції".
Для експерименту вчені модифікували ШІ-бота так, щоб він видавав помилкові відповіді у 50% випадків. Дослідження за участю 1372 піддослідних та 9500 окремих спроб показало аномальний рівень довіри до алгоритмів.
Ключові показники:
Вчені зазначають, що впевнена та добре скомпонована подача тексту нейромережею діє як авторитетний сигнал, що автоматично пригнічує критичну перевірку.
Здатність виявляти "галюцинації" ШІ прямо залежить від зовнішніх умов роботи. Вчені назвали конкретні чинники:
Вчені дійшли однозначних висновків: при повній автономії ШІ результативність роботи обмежена виключно якістю самої моделі. У 73,2% випадків людина просто не виправляє помилки алгоритму.