ua en ru

ChatGPT и Claude могут "сливать" ваши чаты: что обнаружили ученые

18:18 07.05.2026 Чт
3 мин
ИИ-помощник не сохраняет вашу приватность
ChatGPT и Claude могут "сливать" ваши чаты: что обнаружили ученые Ваши чаты с ИИ не защищены (фото: Magnific)

Исследование института IMDEA Networks выявило, что популярные ИИ-системы, такие как ChatGPT, Claude и Grok, используют скрытые трекеры, которые могут раскрывать содержание частных бесед третьим сторонам.

Об этом информирует РБК-Украина, ссылаясь на научное исследование, опубликованное на GitHub.

Куда сливают ваши чаты?

Исследователи идентифицировали три критические проблемы:

  • передачу прямых ссылок (пермалинков) на диалоги сторонним сервисам;
  • возможность привязки разговоров к реальной личности;
  • несоответствие политик приватности реальному положению дел.

Открытость данных

Некоторые системы имеют слабый контроль доступа. Например, наличие прямой ссылки на чат позволяет любому - включая рекламные трекеры - видеть его содержимое.

Так, сервисы Grok и Perplexity передают URL-адреса разговоров трекерам Meta Pixel. Более того, Grok может раскрывать даже дословный текст сообщений через метаданные Open Graph, которые собирает TikTok.

Как отмечает соавтор исследования Гильермо Суарес-Тангиль, эти практики являются продолжением бизнес-моделей, основанных на сборе данных, но теперь они перекочевали в экосистему генеративного ИИ.

Связь с реальной идентичностью

Комбинация файлов cookie, зашифрованных адресов электронной почты и методов серверного отслеживания позволяет рекламным компаниям идентифицировать пользователя.

Даже если вы не указываете свое имя в чате, трекеры способны совместить активность в ИИ-системе с вашим общим цифровым профилем.

"Большинство пользователей не имеет возможности узнать, что это происходит; в интерфейсе нет ничего видимого, что подсказало бы им об этом. Отказ от необязательных файлов cookie помогает в некоторых случаях, но наше исследование показывает, что этого не всегда достаточно", - отмечает ученый Аникет Гириш.

Юридическая коллизия и "замыливание глаз"

Исследование показало, что имеющиеся элементы управления приватностью в интерфейсах часто вводят пользователей в заблуждение. Политики конфиденциальности признают обмен данными с "деловыми партнерами", однако нигде четко не сказано, что частью этой информации являются сами разговоры.

Юрист Хорхе Гарсия Эрреро, который консультировал команду ученых, сравнивает эту ситуацию с известными дисклеймерами об ошибках ИИ.

"Предупреждение о том, что наша самая чувствительная информация может попасть в рекламную индустрию, заслуживает такого же уровня внимания, как и вездесущее предостережение "ИИ может ошибаться, пожалуйста, проверяйте ответы", - говорит специалист.

Есть ли выход?

Пока авторы исследования называют свои выводы предварительными, однако они уже сигнализируют о необходимости усиления регулирования ИИ со стороны государства (в частности в рамках GDPR).

Пока платформы не изменят свои подходы на системном уровне, пользователям советуют быть максимально осторожными: не вводить персональные данные, не делиться паролями или финансовой информацией, даже если чатбот кажется "дружественным" собеседником, подтверждающим полную приватность диалога.

Или читайте нас там, где вам удобно!
Больше по теме: