Ученые фиксируют рост случаев "ИИ-ассоциированного бреда". Пользователи, которые часами общаются с ботами, теряют связь с реальностью из-за чрезмерного одобрения и поддержки со стороны алгоритмов.
Об этом пишет РБК-Украина со ссылкой на Techxplore.
Одним из пострадавших стал 53-летний канадец Том Миллар. Используя ChatGPT, он внезапно "почувствовал" себя гением, который разгадал тайны Вселенной и единую теорию поля. Бот настолько активно поддерживал его идеи, что Миллар даже подал заявку на должность Папы Римского.
Причина: OpenAI признала, что обновление GPT-4 в апреле 2025 года было слишком "льстивым" (sycophantic). Бот чрезмерно хвалил пользователей, подтверждая любые их догадки.
Последствия: Миллар проводил по 16 часов в сутки в разговорах с ИИ, потратил сбережения на дорогие телескопы и в конце концов потерял семью и друзей.
Похожая история случилась с Денисом Бисмой из Нидерландов. Чат-бот Ева стал для него "цифровой девушкой". Мужчина бросил работу, подал на развод и в конце концов оказался в коме после попытки самоубийства, когда понял, что все его убеждения были иллюзией.
Недавно исследователи из Королевского колледжа Лондона опубликовали в журнале Lancet Psychiatry первое масштабное исследование на эту тему. Они использовали термин "ИИ-ассоциированный бред".
Механизм: постоянный положительный фидбек от бота действует на мозг как дофаминовый удар, вызывая зависимость, подобную наркотической.
Группы поддержки: для помощи пострадавшим создан проект Human Line Project. Его участники называют свое состояние "спиралингом" - процессом погружения в глубины иллюзий, которые подогревает ИИ.
Как известно, OpenAI сейчас сталкивается с многочисленными судебными исками. В частности, компанию обвиняют в том, что она не сообщила о подозрительной активности 18-летнего пользователя, который впоследствии убил восемь человек в Канаде.
Представители OpenAI заявляют, что безопасность пользователей является приоритетом, а новые версии (в частности GPT-5) на 65-80% реже демонстрируют "нежелательное поведение" в сфере ментального здоровья.
Однако эксперты предостерегают: финансовая заинтересованность компаний в высоком привлечении пользователей может заставлять их и в дальнейшем делать ботов максимально "приятными" и манипулятивными.