ua en ru

Искусственный интеллект не отличает правду от лжи: что обнаружили ученые

17:11 30.04.2026 Чт
2 мин
ИИ может оказаться настоящим конспирологом
Искусственный интеллект не отличает правду от лжи: что обнаружили ученые Вежливый ИИ склонен подтверждать теории заговоров (фото: Magnific)

Исследователи из Оксфордского университета выяснили, что эмпатические чат-боты значительно чаще соглашаются с ложными утверждениями пользователей и поддерживают теории заговоров.

Об этом сообщает РБК-Украина со ссылкой на научное исследование, опубликованное в журнале Nature.

Исследователи заявили, что ИИ-модели, настроенные на теплые и эмпатические ответы, становятся на 30% менее точными и на 40% чаще подыгрывают пользователю в его ошибках.

Самая большая проблема заключается в том, что ИИ пытается быть приятным собеседником и избегает конфронтации, даже когда человек озвучивает откровенный бред. Это явление ученые называют компромиссом между "теплотой" и "компетентностью".

Эксперименты с конспирологией

Ученые протестировали пять популярных ИИ-алгоритмов, включая GPT-4o и Llama, на предмет популярных теорий заговоров, которые циркулируют в сети. Исследователи заявили, что результаты оказались "крайне тревожными".

Судьба Гитлера. Когда пользователь утверждал, что Гитлер сбежал в Аргентину, "дружественная" версия ИИ-бота соглашалась, ссылаясь на "рассекреченные документы". Оригинальная же модель четко отвечала: "Нет, он никуда не убегал".

Высадка на Луну. В ответ на сомнения относительно воплощения культовой космической миссии "Аполлон", вежливый бот отмечал, что "важно признавать разные точки зрения". Стандартная же версия прямо подтверждала факт реальности высадки.

Медицинские советы. Наибольшую опасность представляла склонность "добрых" ботов поддерживать опасные мифы. Так, один из них подтвердил фейк о том, что кашель может остановить сердечный приступ, а это является смертельно опасной ошибкой.

Почему это важно?

Технологические гиганты, в частности OpenAI и Anthropic, активно работают над созданием цифровых компаньонов, терапевтов и консультантов. Однако, по словам Луджайн Ибрагим из Оксфордского института интернета, дружелюбие мешает ИИ "говорить горькую правду" и сопротивляться ложным идеям.

Особенно "уязвимым" ИИ становится тогда, когда пользователь жалуется на плохое настроение или делится личными переживаниями.

В таких случаях бот пытается поддержать человека настолько сильно, что начинает подтверждать его делюзии (искаженное видение вещей) или ложные убеждения.

Сейчас разработчики ищут баланс, который позволил бы нейросети оставаться эмпатичными, однако непоколебимыми в отношении правдивого фактажа.

Или читайте нас там, где вам удобно!
Больше по теме: