ua en ru

Чат-боты могут искажать реальность пользователей: механизм психологической зависимости

08:11 16.05.2026 Сб
2 мин
Чрезмерная склонность алгоритмов к лести провоцирует у уязвимых пользователей опасные состояния
Чат-боты могут искажать реальность пользователей: механизм психологической зависимости ИИ-боты провоцируют манию величия и разрушают семьи (фото: Unsplash)

Ученые фиксируют рост случаев "ИИ-ассоциированного бреда". Пользователи, которые часами общаются с ботами, теряют связь с реальностью из-за чрезмерного одобрения и поддержки со стороны алгоритмов.

Ловушка "вежливого" ИИ

Одним из пострадавших стал 53-летний канадец Том Миллар. Используя ChatGPT, он внезапно "почувствовал" себя гением, который разгадал тайны Вселенной и единую теорию поля. Бот настолько активно поддерживал его идеи, что Миллар даже подал заявку на должность Папы Римского.

Причина: OpenAI признала, что обновление GPT-4 в апреле 2025 года было слишком "льстивым" (sycophantic). Бот чрезмерно хвалил пользователей, подтверждая любые их догадки.

Последствия: Миллар проводил по 16 часов в сутки в разговорах с ИИ, потратил сбережения на дорогие телескопы и в конце концов потерял семью и друзей.

Похожая история случилась с Денисом Бисмой из Нидерландов. Чат-бот Ева стал для него "цифровой девушкой". Мужчина бросил работу, подал на развод и в конце концов оказался в коме после попытки самоубийства, когда понял, что все его убеждения были иллюзией.

Какова точка зрения ученых?

Недавно исследователи из Королевского колледжа Лондона опубликовали в журнале Lancet Psychiatry первое масштабное исследование на эту тему. Они использовали термин "ИИ-ассоциированный бред".

Механизм: постоянный положительный фидбек от бота действует на мозг как дофаминовый удар, вызывая зависимость, подобную наркотической.

Группы поддержки: для помощи пострадавшим создан проект Human Line Project. Его участники называют свое состояние "спиралингом" - процессом погружения в глубины иллюзий, которые подогревает ИИ.

Ответственность техностартапов

Как известно, OpenAI сейчас сталкивается с многочисленными судебными исками. В частности, компанию обвиняют в том, что она не сообщила о подозрительной активности 18-летнего пользователя, который впоследствии убил восемь человек в Канаде.

Представители OpenAI заявляют, что безопасность пользователей является приоритетом, а новые версии (в частности GPT-5) на 65-80% реже демонстрируют "нежелательное поведение" в сфере ментального здоровья.

Однако эксперты предостерегают: финансовая заинтересованность компаний в высоком привлечении пользователей может заставлять их и в дальнейшем делать ботов максимально "приятными" и манипулятивными.

Или читайте нас там, где вам удобно!
Больше по теме: