Бум искусственного интеллекта дал миру не только чат-ботов, но и новый вид цифровых фальсификаций - дипфейки. Это технологии, которые позволяют создавать крайне правдоподобные фальшивые фото, видео и аудиозаписи.
РБК-Украина рассказывает, как не попасться на фейковые фото, видео и аудио, со ссылкой на технологический сайт PCWorld.
Термин deepfake происходит от сочетания слов deep learning (глубокое обучение) и fake (подделка). Это может быть, например, видео, где лицо одного человека заменено на лицо другого, или аудио, где "известный голос" говорит то, чего никогда не произносил.
Раньше на создание таких фейков требовались ресурсы и навыки. Теперь же благодаря доступности ИИ-сервисов, даже онлайн, создать дипфейк может практически любой пользователь.
Создатели таких приложений часто позиционируют их как развлекательные. Но на практике они все чаще используются мошенниками:
В первые годы распознать фейк можно было по визуальным и звуковым огрехам: странная мимика, неестественная интонация. Но технологии развиваются, и сейчас отличить подделку становится все труднее.
Сегодня в интернете доступны специальные ИИ-сервисы, которые анализируют изображения и видео. Один из самых продвинутых - Deepfake-o-Meter, разработанный лабораторией медиакриминалистики Университета Буффало (США).
Он объединяет 16 ИИ-систем, которые проверяют загруженные пользователем фото, видео или аудио и выдают вероятность подделки. Доступ к сервису бесплатный - после регистрации вы получаете 30 проверок.
Например, знаменитое фото Папы Римского Франциска в белом пуховике, созданное с помощью Midjourney, только две системы распознали как дипфейк с вероятностью более 50%. А вот портрет, сгенерированный Canva, был определен как ИИ-изображение в 7 случаях из 16.
Сервис Sightengine (Франция) работает быстрее и дал 99% вероятности фейка для изображения женщины, сгенерированного ИИ. Однако по фото с Папой - только 53%.
Даже без специальных программ подделку можно распознать - достаточно внимательно присмотреться:
С появлением видеогенератора Sora от OpenAI в 2024 году дипфейки вышли на новый уровень. Сотни реалистичных роликов, созданных этой системой, уже можно найти на YouTube. По качеству они порой не уступают профессиональной съёмке.
Распознать такие видео все сложнее, однако бесплатные онлайн-инструменты все еще существуют. Один из них - Deepware.ai, другой - Hive AI Detector. Первый полностью бесплатен, второй позволяет проверять видео длиной до 20 секунд в бесплатной версии.
При тестировании роликов, сгенерированных с помощью Sora, Deepware показал себя слабо - не распознал ни одного фейка. Зато Hive сработал значительно лучше: во всех случаях программа указала вероятность дипфейка 99%.
Даже без специальных программ некоторые признаки выдают поддельное видео:
Чтобы заметить многие из этих деталей, иногда достаточно замедлить видео.
ИИ теперь способен имитировать голос человека всего по нескольким секундам записи. Программа вроде Real Time Voice Cloning может озвучить любой текст голосом другого человека.
Технология еще не идеальна - по исследованиям, в двух из трех случаев люди могут распознать фальшивку. Но уже сейчас преступники успешно используют дипфейк-голоса для "звонков от родственников" с просьбами о помощи.
Инструменты для распознавания фейковых голосов
Пока большинство решений ориентированы на англоязычный рынок:
Вас может заинтересовать: