ua en ru

Эксперты выявили 7 опасных уязвимостей ChatGPT: что нужно знать пользователям

Эксперты выявили 7 опасных уязвимостей ChatGPT: что нужно знать пользователям Эксперты предупреждают о рисках скрытых команд и утечек данных (фото: Unsplash)

У ChatGPT обнаружили ряд серьезных уязвимостей, которые могут позволить злоумышленникам скрытно внедрять команды, красть конфиденциальные данные и распространять дезинформацию.

Об этом сообщает РБК-Украина со ссылкой на TechRadar.

Специалисты компании Tenable протестировали модель ChatGPT-4o и выявили семь уязвимостей, которые они объединили под названием HackedGPT.

Основные уязвимости

Скрытая индиректная инъекция команд через доверенные сайты - вредоносные инструкции могут быть спрятаны в контенте открытых веб-страниц, которые ChatGPT автоматически анализирует.

"Нулевой клик" через поиск - ChatGPT может наткнуться на страницу с зашифрованными командами во время веб-поиска и выполнить их без ведома пользователя.

Инъекция через один клик - аналог фишинга: пользователь нажимает ссылку, содержащую скрытые команды.

Обход защитных механизмов - злоумышленники маскируют вредоносные ссылки под якобы доверенные.

Встраивание команд в диалог - через SearchGPT атакующий может внедрить невидимые инструкции, которые ChatGPT затем самостоятельно прочитает и исполнит.

Скрытие вредоносного контента - команды могут прятаться в коде или markdown-разметке.

Инъекция через память - вредоносные инструкции могут быть записаны в сохраненный чат, и модель будет повторять их, что приведет к постоянным утечкам данных.

OpenAI уже устранила часть проблем, но риски остаются

По данным Tenable, компания OpenAI исправила некоторые уязвимости в следующем поколении модели - GPT-5, однако не все, что сохраняет потенциальную угрозу для миллионов пользователей.

Эксперты уже давно предупреждают о рисках мгновенных инъекций - атак через скрытые подсказки, внедряемые в текст.

Аналогичные проблемы, по информации исследователей, наблюдаются и у Google Gemini, особенно из-за интеграции с Gmail: вредоносные подсказки могут быть спрятаны в письме (например, белым шрифтом на белом фоне), и модель может выполнить их при анализе сообщения.

Что говорят эксперты

"HackedGPT показывает фундаментальную проблему: крупные языковые модели пока не умеют надежно определять, какой информации можно доверять", - отмечает Моше Бернштейн, старший инженер-исследователь Tenable.

Он добавляет, что каждая уязвимость по отдельности может казаться незначительной, но вместе они образуют полноценную цепочку атаки - от внедрения команд до кражи данных и создания постоянного доступа.

Рекомендации для разработчиков

По данным Tenable, OpenAI исправила лишь часть найденных уязвимостей, при этом "несколько" остаются активными в GPT-5 - какие именно, исследователи не уточняют.

Эксперты рекомендуют компаниям, разрабатывающим ИИ-модели:

  • усиливать защиту от скрытых команд
  • регулярно проверять корректность работы защитных механизмов
  • внедрять дополнительные уровни фильтрации контента.