ua en ru

ИИ на службе хакеров. Гонки вооружений выходят на новый уровень: как защититься

ИИ на службе хакеров. Гонки вооружений выходят на новый уровень: как защититься Фото: искусственный интеллект используют в киберпреступлениях

В последние годы киберугрозы ИИ переходят из фантастики в рутину. Раньше взлом совершали программисты. Теперь атакует человек, который работает с психологией и алгоритмами.

Как пишет РБК-Украина, об этом рассказал эксперт в сфере организации информационной безопасности Ярослав Гордийчук.

Эксперт приводит данные со Всемирного экономического форума, которые показывают рост случаев подмены лица через дипфейк-инструменты на 704%.

"Сегодня, анализируя тренды, я вижу "эпоху нулевого доверия", где любую цифровую личность можно сгенерировать за минуты", - отмечает он.

Эволюция угроз: как AI изменяет методы атаки

Полиморфные AI-атаки стали новым стандартом. Алгоритмы переписывают вредоносный код в реальном времени, обходя антивирусы. Сигнатура вируса меняется каждые несколько секунд. Это похоже на хамелеона, который постоянно адаптирует цвет, рассказал Ярослав Гордийчук.

Другое направление развития - автоматизированный поиск уязвимостей. AI-боты действуют как нескончаемые сканеры, проверяющие периметр компании 24/7. Выявить "открытое окно" проще, чем когда-либо. Алгоритм находит лазейку в защите быстрее админов. Эксперт упоминает публикацию Forbes, в которой приводится пример британского киберпреступника, известного как GTG-5004, который так использовал Claude.

Социальная инженерия 2.0: видеодипфейки и "фейковые сотрудники"

Современная социальная инженерия 2.0 не пытается вынудить человека нажать на ссылку. Это полноценная симуляция личности.

"Алгоритмы создают убедительные дипфейки в бизнесе, где, казалось бы, "начальник" просит срочно согласовать платеж. Во время звонков мошенники используют клонирование голоса (vishing), моделируя практически идеальную копию тембра", - объясняет Ярослав Гордийчук.

По словам эксперта, еще один тип атаки - видеодипфейки, генерируемые через Face Swap технологии. У всех на слуху примеры из реальной жизни, когда северокорейские хакеры проходили собеседования к американским и европейским IT-компаниям, используя цифровые маски. На экране - человек, который улыбается, кивает, отвечает на вопросы. Но это лишь голограмма, созданная в реальном времени. После найма фейковые сотрудники получали доступ к репозиториям и внедряли скрытые бэкдоры.

Гиперперсонализация фишинга

ChatGPT позволил мошенникам писать письма без ошибок, адаптируя стиль под человека. Текст выглядит максимально натурально, потому что учитывается способ общения в соцсетях. Это уже не массовая рассылка, а "точечный удар" охоты на конкретное лицо.

Угроза для государственных структур и дезинформация

На макроуровне AI способен ускорить информационный хаос. Эксперт отметил, что это проявляется в:

  • генерации фейковых новостей;
  • подделке документов;
  • фабрикации видео;
  • манипуляциях на фондовом рынке;
  • копировании заявлений должностных лиц;
  • распространении хаотического контента для дестабилизации ситуации.

Как защититься: клин клином выбивают

Защита от AI-хакеров возможна только через контратаку технологиями. EDR-системы уже работают по поведенческому анализу, отслеживая подозрительные действия, а не файлы. В работе с персоналом важно использовать личные собеседования или инструменты для выявления дипфейков в реальном времени, акцентирует Гордейчук.

"Построение архитектуры Zero Trust помогает минимизировать риски. "Никому не доверяй" и ограничивай доступ сотрудников к критически нужному уровню. Это важно, учитывая инсайдерские угрозы, которые выросли вместе с новыми возможностями маскировки", - объясняет он.

Как отмечает эксперт, мы не можем остановить развитие AI, но должны адаптировать правила и изменить подход. Пассивные методы давно устарели. Требуется активный мониторинг, проверка личностей и постоянная верификация происходящего на экране.

"Реальность больше не гарантирует правды. Ее приходится подтверждать", - подытожил Ярослав Гордийчук.