Google обнаружила первую хакерскую атаку с участием ИИ: почему это опасный сигнал
ИИ может заменить хакеров уже в близком будущем (фото: Magnific)
Аналитики Google Threat Intelligence Group (GTIG) зафиксировали первый случай использования ИИ для разработки эксплойта "нулевого дня". Это подтверждает худшие опасения экспертов: современные языковые модели стали инструментом в руках кибермошенников.
Об этом пишет РБК-Украина со ссылкой на отчет от Google.
Алгоритм против двухфакторной аутентификации
По данным отчета, неизвестная группа хакеров использовала ИИ для создания эксплойта, нацеленного на уязвимость в Python-скрипте. Целью атаки был обход двухфакторной аутентификации (2FA). Злоумышленники готовили масштабную акцию, однако специалисты по кибербезопасности успели выпустить патч до того, как уязвимость использовали на глобальном уровне.
В чем проблема
Ключевая опасность заключается в скорости - отметили в Google. Процессы, которые ранее требовали месяцев кропотливой работы программистов, теперь выполняются за считанные дни или даже часы.
Кроме написания кода, ИИ помогает хакерам создавать максимально реалистичные фишинговые схемы, где нейросети имитируют службу поддержки Google в телефонных разговорах или переписке.
"Злоумышленники используют ИИ для улучшения различных фаз жизненного цикла атаки. Это включает поддержку разработки эксплойтов уязвимостей и вредоносного ПО, содействие автономному выполнению команд, обеспечение целенаправленной и хорошо исследованной разведки, а также повышение эффективности социальной инженерии и информационных операций", - пояснили специалисты.
Как Google вычислила "искусственный" код
Исследователи поняли, что код написан не человеком, благодаря детальному анализу. В структуре эксплойта нашли специфические строки данных, которые обычно встречаются в учебных сетах больших языковых моделей (LLM).
Самым интересным доказательством стала "галлюцинация" - ИИ придумал несуществующий балл по шкале CVSS (система оценки уязвимостей).
"Это напоминает случаи, когда нейросети ссылаются на вымышленные законы при подготовке юридических документов", - говорят эксперты.
Несмотря на это, аналитики уверены: хотя хакеры использовали не Gemini, они задействовали сразу несколько разных аккаунтов в разных ИИ-моделях, чтобы скрыть свою активность.
ИИ остается на светлой стороне?
Пока хакеры вооружаются нейросети, компании используют те же технологии для обороны. Суть проста: ИИ позволяет проактивно сканировать софт на наличие багов еще до его релиза.
Успешным кейсом стал опыт Mozilla: компания недавно отчиталась, что с помощью ИИ-инструментов обнаружила и исправила 423 пробела в безопасности всего за один месяц.