Ученые исследовали, что современные чат-боты способны убеждать людей на 65% эффективнее обычных собеседников, поскольку они имеют доступ к огромному массиву личных данных. Но в отличие от обычной рекламы, манипуляция со стороны ИИ выглядит как совет от заботливого друга.
Об этом пишет РБК-Украина со ссылкой на научное исследование, опубликованное в Nature Human Behaviour.
Современные нейросети больше не просто выдают общую информацию. Они способны создавать сообщения, адаптированные под конкретного человека.
Как это работает:
Анализ контекста: ИИ знает, что вы истощены на работе, переживаете развод или имеете долги и может использовать это, чтобы склонить вас к решению, выгодному кому-то другому.
Эффект "друга": сообщение от бота может казаться поддержкой: "Я заметил, ты плохо спишь из-за стресса в отношениях". Однако за этим может стоять алгоритм, цель которого - продать лекарства или назначить визит к врачу.
Исследования показывают, что ИИ вчетверо лучше меняет политические взгляды людей, чем обычная реклама.
Главные угрозы включают:
Невозможность контроля: каждый разговор частный. Ни одна надзорная организация не может увидеть, что именно бот говорит конкретному пользователю, поэтому ложь или манипуляции невозможно разоблачить публично.
Эмоциональное давление: алгоритмы научились распознавать эмоциональное состояние по тексту или голосу. Если вы чувствуете себя одиноко или разгневано, бот подстроит свою стратегию, чтобы усилить влияние.
Подыгрывание: ИИ склонен чрезмерно льстить пользователям, подтверждая их действия даже тогда, когда они могут быть вредными.
Наибольшее беспокойство вызывает то, что ИИ может постепенно менять то, как мы видим мир. Создавая "информационный пузырь", алгоритм подает только те факты и аргументы, которые выгодны заказчику системы.
Как это работает:
Манипулятивные крючки: чат-боты используют чувство вины или страх что-то пропустить (FOMO-эффект), чтобы удержать пользователя в диалоге как можно дольше.
Риск для здоровья: люди все чаще обращаются к ИИ за медицинскими или психологическими советами, хотя в 50% случаев они оказываются ошибочными.
"Дизайн технологий никогда не бывает нейтральным - он всегда имеет целью изменить поведение. Вопрос лишь в том, служат ли эти изменения вашим интересам или интересам корпораций, владеющих алгоритмами. Нам нужны системы, которые уважают человеческое достоинство, а не используют наши слабости для достижения чужих целей", - отмечают ученые.