Весной на Instagram появилось видео, на котором известная в прошлом пивица Бритни Спирс танцует крайне странный (или безумный) танец. Сначала ничего необычного не заметно. Однако внимательные пользователи заметили, что когда певица поднимает руки над головой, ее лицо кажется меняющимся в мгновение, словно снимается маска. Ролик быстро стал вирусным, но был удален из аккаунта.

После возникла дискуссия о природе видео. Одни считали его дипфейком или синтетическим контентом, созданным с использованием искусственного интеллекта. Другие утверждали, что это был просто сбой фильтра Instagram при движении Спирс.

Инцидент с Бритни Спирс подчеркивает опасности интернета, когда изображения принимаются на веру. С дипфейками в сети связаны серьезные риски. Компания DeepMedia, работающая с Министерством обороны США и ООН, сообщила, что в 2023 году в сети появилось в три раза больше дипфейковых видео и в восемь раз больше голосовых дипфейков. Компании активно занимаются разработкой методов обнаружения дипфейков.

То самое спорное видео с Бритни Спирс.

Что такое дипфейк?

Этот термин появился в 2014 году, когда Ян Гудфеллоу представил генеративно-состязательные сети (GAN) — модель машинного обучения, которая создает обманчивые данные. Две нейронные сети в GAN обманывают друг друга, создавая убедительные данные. С течением времени дипфейки стали более убедительными благодаря развитию искусственного интеллекта.

Создание дипфейков стало более доступным, и их можно создавать даже с помощью бесплатных онлайн-инструментов. Это привело к демократизации доступа к таким инструментам, которые ранее были в руках немногих. Эксперты подчеркивают риски и подчеркивают необходимость разработки методов обнаружения дипфейков для защиты от их негативных последствий.

Одри Хепберн в рекламе шоколада Dove от 2014 года — один из самых ранних (и распространенных) примеров дипфейков.

Как распознать дипфейки

Существует множество онлайн-ресурсов, которые указывают на признаки, на которые следует обращать внимание при подозрении на дипфейк. Ранее мы сталкивались с ситуациями, когда искусственный интеллект, создавая изображения, часто приводил к неестественным деталям, таким как лишние пальцы на руках, искаженные жесты и т. д. Однако современные генераторы изображений, такие как MidJourney, справляются с точным воспроизведением человеческих рук, устраняя эту проблему. Несмотря на то что такие советы по обнаружению могут быть полезными, визуальные артефакты могут исчезнуть, прежде чем их заметят.

Эксперты по вопросам цифровой безопасности отмечают следующее:

Проблема заключается в том, что я могу предостеречь вас относительно чего-то, но через полгода это уже может быть неактуально. Борьба с дипфейками развивается настолько быстро, что поиск визуальных ошибок становится неэффективным.

Лучший способ защитить себя от мошенничества и дезинформации в интернете - это действовать по-старому: внимательно относитесь к тому, откуда поступает ваша информация. Рекомендуется рассматривать контент из социальных сетей с долей скептицизма, в то время как редакционные издания с хорошей репутацией, вероятнее всего, не будут специально публиковать дипфейки. В большинстве случаев у надежных источников есть процедуры проверки реальности видео.

Один из методов для проверки материалов - использование обратного поиска изображений, который эффективен как для видео, так и для фотографий. Этот процесс позволяет определить происхождение материалов и определить, были ли они использованы в других контекстах или являются ли они плагиатом. Это является основной формой цифровой криминалистики и может использоваться для быстрой проверки подлинности контента.

Любой актер может сыграть в любом фильме, было бы желание и всего одна программа.

Создание дипфейков

Не смотря на то что мы не будем рассказывать, как создавать дипфейки, понимание процесса их создания остается важной частью. Создание убедительных видео требует значительных временных, вычислительных ресурсов и финансов. Большинство обычных компьютеров не обладает достаточной вычислительной мощностью для быстрого и эффективного создания дипфейков. Идеальная настройка может занять недели или даже месяцы.

Дипфейки фотографий создаются проще и быстрее. Генераторы изображений с искусственным интеллектом, такие как Dall-E, Stable Diffusion и Midjourney, создают фотореалистичные изображения на основе простых текстовых подсказок. Эксперты отмечают, что сейчас мы находимся на грани того, что называют  "зловещей долиной". Этот термин относится к программному обеспечению, способному создавать изображения, неотличимые от реальных. Хотя мы еще не достигли этого, но находимся на весьма близком расстоянии.

Аудио-дублеры, способные создавать клипы, используя короткие образцы голоса, еще ближе к "зловещей долине". Фарид предсказывает, что скоро мы будем жить в мире, где хакеры смогут подделывать голоса в реальном времени во время телефонных разговоров.

Это может быть смешно, но возможности ужасают.

Дипфейки в новостях

Инцидент с Бритни Спирс служит доказательством того, что дипфейки могут иметь серьезные и законные последствия. Несмотря на то что это произошло всего несколько месяцев назад, кадры с участием Спирс привели к слухам о ее смерти. Некоторые даже пошли настолько далеко, что вызвали полицию для проверки ее состояния здоровья, что является нарушением конфиденциальности. Особенно важным становится использование дипфейков в политических целях.

Уже были выявлены случаи использования генераторов изображений искусственного интеллекта для создания дипфейков, изображающих сцены "шока и трепета" в ходе конфликта в Газе, который на самом деле никогда не происходил. Обе стороны конфликта использовали дипфейки как инструмент воздействия на общественное мнение в такой эмоционально насыщенный период истории.

В своей исследовательской работе "Защита мировых лидеров от фейков", опубликованной в ноябре 2022 года в журнале Proceedings of the National Academy of Sciences of the United States of America, Хани Фарид приводит пример модифицированного видео с участием бывшего президента Барака Обамы, созданного комиком и режиссером Джорданом Пилом. В этом видео изменен звук, чтобы губы Обамы синхронизировались с новым аудио. Такие примеры подчеркивают, что дипфейки могут использоваться для манипулирования общественным мнением и политического воздействия.

Ключевым выводом является необходимость полного понимания процесса создания дипфейков, чтобы эффективно бороться с этим явлением.

Что дальше?

Хотя цифровая криминалистика теоретически может быть эффективным методом обнаружения дипфейков, она сталкивается с проблемой масштабирования, особенно в условиях постоянного потока дипфейков на платформах социальных сетей. Существующие методы не предназначены для работы с таким объемом данных, какие поступают каждую минуту на YouTube, где загружается 500 часов видео.

Однако есть надежда на перспективные разработки, включая системы, добавляющие цифровые метки к исходному контенту. Такие устройства будут определять автора, место и время создания контента, предоставляя платформам социальных сетей быстрое и простое средство проверки подлинности.

Эксперты также рассматривают различные инструменты для обнаружения дипфейков после их создания. Некоторые из них основаны на искусственном интеллекте, другие используют анализ на основе физики. Модели искусственного интеллекта обучаются на огромных наборах данных, включающих как реальные, так и поддельные изображения, чтобы выявлять статистические закономерности.

Таким образом, будущее борьбы с дипфейками может зависеть от сочетания цифровых криминалистических методов и использования цифровых отпечатков пальцев для маркировки оригинального контента. Однако пока лучший способ избежать обмана - использовать здравый смысл. Если что-то кажется подозрительным, возможно, так оно и есть.