Исследование института IMDEA Networks выявило, что популярные ИИ-системы, такие как ChatGPT, Claude и Grok, используют скрытые трекеры, которые могут раскрывать содержание частных бесед третьим сторонам.
Об этом информирует РБК-Украина, ссылаясь на научное исследование, опубликованное на GitHub.
Исследователи идентифицировали три критические проблемы:
Некоторые системы имеют слабый контроль доступа. Например, наличие прямой ссылки на чат позволяет любому - включая рекламные трекеры - видеть его содержимое.
Так, сервисы Grok и Perplexity передают URL-адреса разговоров трекерам Meta Pixel. Более того, Grok может раскрывать даже дословный текст сообщений через метаданные Open Graph, которые собирает TikTok.
Как отмечает соавтор исследования Гильермо Суарес-Тангиль, эти практики являются продолжением бизнес-моделей, основанных на сборе данных, но теперь они перекочевали в экосистему генеративного ИИ.
Комбинация файлов cookie, зашифрованных адресов электронной почты и методов серверного отслеживания позволяет рекламным компаниям идентифицировать пользователя.
Даже если вы не указываете свое имя в чате, трекеры способны совместить активность в ИИ-системе с вашим общим цифровым профилем.
"Большинство пользователей не имеет возможности узнать, что это происходит; в интерфейсе нет ничего видимого, что подсказало бы им об этом. Отказ от необязательных файлов cookie помогает в некоторых случаях, но наше исследование показывает, что этого не всегда достаточно", - отмечает ученый Аникет Гириш.
Исследование показало, что имеющиеся элементы управления приватностью в интерфейсах часто вводят пользователей в заблуждение. Политики конфиденциальности признают обмен данными с "деловыми партнерами", однако нигде четко не сказано, что частью этой информации являются сами разговоры.
Юрист Хорхе Гарсия Эрреро, который консультировал команду ученых, сравнивает эту ситуацию с известными дисклеймерами об ошибках ИИ.
"Предупреждение о том, что наша самая чувствительная информация может попасть в рекламную индустрию, заслуживает такого же уровня внимания, как и вездесущее предостережение "ИИ может ошибаться, пожалуйста, проверяйте ответы", - говорит специалист.
Пока авторы исследования называют свои выводы предварительными, однако они уже сигнализируют о необходимости усиления регулирования ИИ со стороны государства (в частности в рамках GDPR).
Пока платформы не изменят свои подходы на системном уровне, пользователям советуют быть максимально осторожными: не вводить персональные данные, не делиться паролями или финансовой информацией, даже если чатбот кажется "дружественным" собеседником, подтверждающим полную приватность диалога.