В последние годы киберугрозы ИИ переходят из фантастики в рутину. Раньше взлом совершали программисты. Теперь атакует человек, который работает с психологией и алгоритмами.
Как пишет РБК-Украина, об этом рассказал эксперт в сфере организации информационной безопасности Ярослав Гордийчук.
Эксперт приводит данные со Всемирного экономического форума, которые показывают рост случаев подмены лица через дипфейк-инструменты на 704%.
"Сегодня, анализируя тренды, я вижу "эпоху нулевого доверия", где любую цифровую личность можно сгенерировать за минуты", - отмечает он.
Полиморфные AI-атаки стали новым стандартом. Алгоритмы переписывают вредоносный код в реальном времени, обходя антивирусы. Сигнатура вируса меняется каждые несколько секунд. Это похоже на хамелеона, который постоянно адаптирует цвет, рассказал Ярослав Гордийчук.
Другое направление развития - автоматизированный поиск уязвимостей. AI-боты действуют как нескончаемые сканеры, проверяющие периметр компании 24/7. Выявить "открытое окно" проще, чем когда-либо. Алгоритм находит лазейку в защите быстрее админов. Эксперт упоминает публикацию Forbes, в которой приводится пример британского киберпреступника, известного как GTG-5004, который так использовал Claude.
Современная социальная инженерия 2.0 не пытается вынудить человека нажать на ссылку. Это полноценная симуляция личности.
"Алгоритмы создают убедительные дипфейки в бизнесе, где, казалось бы, "начальник" просит срочно согласовать платеж. Во время звонков мошенники используют клонирование голоса (vishing), моделируя практически идеальную копию тембра", - объясняет Ярослав Гордийчук.
По словам эксперта, еще один тип атаки - видеодипфейки, генерируемые через Face Swap технологии. У всех на слуху примеры из реальной жизни, когда северокорейские хакеры проходили собеседования к американским и европейским IT-компаниям, используя цифровые маски. На экране - человек, который улыбается, кивает, отвечает на вопросы. Но это лишь голограмма, созданная в реальном времени. После найма фейковые сотрудники получали доступ к репозиториям и внедряли скрытые бэкдоры.
ChatGPT позволил мошенникам писать письма без ошибок, адаптируя стиль под человека. Текст выглядит максимально натурально, потому что учитывается способ общения в соцсетях. Это уже не массовая рассылка, а "точечный удар" охоты на конкретное лицо.
На макроуровне AI способен ускорить информационный хаос. Эксперт отметил, что это проявляется в:
Защита от AI-хакеров возможна только через контратаку технологиями. EDR-системы уже работают по поведенческому анализу, отслеживая подозрительные действия, а не файлы. В работе с персоналом важно использовать личные собеседования или инструменты для выявления дипфейков в реальном времени, акцентирует Гордейчук.
"Построение архитектуры Zero Trust помогает минимизировать риски. "Никому не доверяй" и ограничивай доступ сотрудников к критически нужному уровню. Это важно, учитывая инсайдерские угрозы, которые выросли вместе с новыми возможностями маскировки", - объясняет он.
Как отмечает эксперт, мы не можем остановить развитие AI, но должны адаптировать правила и изменить подход. Пассивные методы давно устарели. Требуется активный мониторинг, проверка личностей и постоянная верификация происходящего на экране.
"Реальность больше не гарантирует правды. Ее приходится подтверждать", - подытожил Ярослав Гордийчук.