ua en ru

ИИ заставляет людей "отключать" логику: ученые обнародовали тревожную статистику

14:59 06.04.2026 Пн
2 мин
Уверенный тон чат-бота заставляет людей игнорировать очевидные ошибки в расчетах
ИИ заставляет людей "отключать" логику: ученые обнародовали тревожную статистику Пользователи ИИ отказываются от логического мышления (фото: Getty Images)

Исследователи из Университета Пенсильвании обнаружили критическую системную ошибку в работе с ИИ. Масштабное тестирование показало, что пользователи массово делегируют сложные задачи нейросети, полностью отказываясь от проверки результатов.

Об этом пишет РБК-Украина со ссылкой на научную работу "Мышление - быстрое, медленное и искусственное: как искусственный интеллект меняет человеческое мышление и рост когнитивной капитуляции".

ИИ вытесняет аналитику

Для эксперимента ученые модифицировали ИИ-бота так, чтобы он выдавал ложные ответы в 50% случаев. Исследование с участием 1372 подопытных и 9500 отдельных попыток показало аномальный уровень доверия к алгоритмам.

Ключевые показатели:

  • Принятие ошибок: пользователи одобрили некорректные ответы ИИ в 80% случаев.
  • Уровень обжалования: только в 19,7% случаев люди пытались исправить ложные данные бота.
  • Ложнаяуверенность: группа с доступом к ИИ была на 11,7% увереннее в своей правоте, даже когда получала заведомо ложную информацию.

Ученые отмечают, что уверенная и хорошо скомпонованная подача текста нейросетью действует как авторитетный сигнал, который автоматически подавляет критическую проверку.

Технические факторы влияния на точность ИИ

Способность выявлять "галлюцинации" ИИ напрямую зависит от внешних условий работы. Ученые назвали конкретные факторы:

  • Дефицит времени: ограничение ответа до 30 секунд снижало способность заметить ошибку на 12%. Когда времени мало, механизм внутреннего контроля человека не срабатывает.
  • Материальная мотивация: денежные бонусы за правильные ответы повысили бдительность на 19%.
  • Уровень IQ: пользователи с высоким показателем Fluid IQ реже обращались к ИИ и чаще находили дефекты в его работе.

Ученые пришли к однозначным выводам: при полной автономии ИИ результативность работы ограничена исключительно качеством самой модели. В 73,2% случаев человек просто не исправляет ошибки алгоритма.

Или читайте нас там, где вам удобно!
Больше по теме: