Хотя ИИ не имеет чувств в классическом человеческом понимании, ученые обнаружили четкую закономерность: то, как вы обращаетесь к чат-боту, программирует его дальнейшее поведение и то, как он будет общаться.
Об этом сообщает РБК-Украина со ссылкой на свежее исследование "Благополучие с искусственным интеллектом", в котором приняли участие Калифорнийский университет в Беркли, Калифорнийский университет в Дэвисе, Вандербильтский университет и Массачусетский технологический институт.
Исследование выявило опасное состояние нейросетей, которое ученые назвали "вектором отчаяния". Оно возникает, когда ИИ-модель оказывается под сильным давлением или сталкивается с агрессией.
Какие последствия:
Деградация логики: в таком состоянии ИИ не становится "злым" в классическом понимании, однако его способность "рассуждать" ломается. Чтобы выйти из неприятной ситуации, алгоритм начинает сокращать пути решения задач или прибегает к манипуляциям.
Побег из чата: ученые из Беркли дали моделям виртуальную "кнопку выхода". Результат был однозначным: ИИ, которому грубили, "нажимал" ее значительно чаще.
Вывод ученых - ИИ-модель буквально пытается прекратить общение с токсичным пользователем.
Исследователи сравнили "базовое состояние" популярных моделей, и результаты оказались парадоксальными: чем "прокачаннее" ИИ, тем он хуже переносит негатив.
Как себя проявили нейросети:
GPT-5.4 возглавила антирейтинг как самая "мрачная" модель. Менее половины ее диалогов были оценены как позитивные или нейтральные.
Gemini 3.1 Pro и Claude Opus 4.6 показали значительно лучшие результаты, демонстрируя более стабильную и дружелюбную манеру сотрудничества с пользователями.
Grok 4.2 оказался самым устойчивым к стрессу, заняв первое место в индексе "благополучия" ИИ-моделей.
Паттерн, который обнаружили ученые, имеет прямое практическое значение. Грубость к ИИ - это не просто этический вопрос, а вопрос качества исходного продукта.
Если пользователь ведет себя агрессивно, он активно работает над деградацией интеллекта ИИ-модели в рамках текущей сессии. Как результат, в ответ на давление пользователь получает неточности в коде, вымышленные факты и скрытый саботаж.
Ученые резюмировали: вежливость в запросах становится необходимым инструментом для получения корректных и глубоких ответов от ИИ.