Как исследователи готовятся к надвигающейся волне дипфейк-пропаганды
Детекторы на базе искусственного интеллекта - лучший инструмент для обнаружения фальшивых видеороликов, созданных искусственным интеллектом.
Вашингтонская почта через Getty Images

Журналист-расследователь получает видео от анонимного осведомителя. Это показывает, что кандидат в президенты признается в незаконной деятельности. Но реально ли это видео? Если так, это будет огромная новость - сенсация всей жизни - и она может полностью изменить ситуацию к предстоящим выборам. Но журналистка пропускает видео через специализированный инструмент, который говорит ей, что видео не то, чем кажется. Фактически, это «deepfake, »Видео, снятое с использованием искусственного интеллекта с глубокое обучение.

Журналисты всего мира вскоре смогут использовать такой инструмент. Через несколько лет такой инструмент сможет даже использовать каждый для искоренения поддельного контента в своих лентах социальных сетей.

As исследователи кто изучает обнаружение дипфейков и разрабатывая инструмент для журналистов, мы видим будущее для этих инструментов. Однако они не решат всех наших проблем и станут лишь частью арсенала в более широкой борьбе с дезинформацией.

Проблема с дипфейками

Большинство людей знают, что всему, что видишь, нельзя верить. За последние пару десятилетий сообразительные потребители новостей привыкли к тому, что изображения обрабатываются с помощью программного обеспечения для редактирования фотографий. Но видео - это совсем другое дело. Голливудские режиссеры могут потратить миллионы долларов на спецэффекты, чтобы создать реалистичную сцену. Но используя дипфейки, любители с несколькими тысячами долларов компьютерного оборудования и несколькими неделями могут сделать что-то почти столь же правдоподобным.


графика подписки внутри себя


Deepfakes позволяют помещать людей в сцены из фильмов, в которых они никогда не были - думаю, Том Круз играет Железного человека - что делает для развлекательных видео. К сожалению, он также позволяет создавать порнография без согласия изображенных людей. Пока что эти люди, почти все женщины, являются самыми большими жертвами злоупотребления технологиями deepfake.

Deepfakes также можно использовать для создания видеороликов, на которых политические лидеры говорят то, чего они никогда не говорили. Бельгийская социалистическая партия выпустила некачественное, не глубокое, но фальшивое видео Президент Трамп оскорбляет Бельгию, который получил достаточную реакцию, чтобы продемонстрировать потенциальные риски более качественных дипфейков.

{vembed Y = poSd2CyDpyA}
Хани Фарид из Калифорнийского университета в Беркли объясняет, как создаются дипфейки.

возможно самый страшный из всех, их можно использовать для создания сомневаюсь в содержании реальных видео, предполагая, что они могут быть дипфейками.

Учитывая эти риски, было бы чрезвычайно полезно иметь возможность обнаруживать дипфейки и четко маркировать их. Это гарантирует, что поддельные видео не вводят в заблуждение публику и что настоящие видео могут быть приняты как подлинные.

Обнаружение подделок

Обнаружение дипфейков как область исследований было начато чуть позже Три года назад. Ранняя работа была сосредоточена на обнаружении видимых проблем в видео, таких как дипфейки, которые не мигают. Однако со временем подделки стали лучше имитировать реальные видео, и их становится труднее обнаружить как для людей, так и для средств обнаружения.

Есть две основные категории исследований по обнаружению дипфейков. Первый предполагает глядя на поведение людей в видео. Предположим, у вас есть много видео с кем-то известным, например, с президентом Обамой. Искусственный интеллект может использовать это видео, чтобы изучить его модели, от жестов рук до пауз в речи. Тогда он может смотреть его дипфейк и обратите внимание, где он не соответствует этим шаблонам. Преимущество этого подхода в том, что он может работать, даже если качество видео по существу идеальное.

{vembed Y = gsv1OsCEad0}
Аарон Лоусон из SRI International описывает один подход к обнаружению дипфейков.

Другие исследователи, включая нашу команду, были сосредоточены на Различия который все дипфейки есть по сравнению с реальными видео. Видео Deepfake часто создаются путем объединения индивидуально сгенерированных кадров в видео. Принимая это во внимание, методы нашей команды извлекают важные данные из лиц в отдельных кадрах видео, а затем отслеживают их с помощью наборов параллельных кадров. Это позволяет нам обнаруживать несоответствия в потоке информации от одного кадра к другому. Мы используем аналогичный подход и для нашей системы обнаружения поддельного звука.

Людям трудно увидеть эти тонкие детали, но они показывают, насколько дипфейки не совсем еще идеально. Подобные детекторы могут работать для любого человека, а не только для нескольких мировых лидеров. В конце концов, может оказаться, что потребуются оба типа детекторов дипфейка.

Последние системы обнаружения очень хорошо работают с видео, специально собранными для оценки инструментов. К сожалению, даже самые лучшие модели плохо на видео, найденных в Интернете. Следующий ключевой шаг - сделать эти инструменты более надежными и полезными.

Кому подходят детекторы дипфейков?

В идеале инструмент проверки Deepfake должен быть доступен каждому. Однако эта технология находится на ранней стадии разработки. Исследователям необходимо улучшить инструменты и защитить их от хакеров, прежде чем выпускать их в широком масштабе.

Однако в то же время инструменты для создания дипфейков доступны любому, кто хочет обмануть публику. Сидеть в стороне - не вариант. Для нашей команды правильным балансом была работа с журналистами, потому что они - первая линия защиты от распространения дезинформации.

Перед публикацией материалов журналистам необходимо проверить информацию. У них уже есть проверенные методы, такие как проверка источников и получение более чем одного человека для проверки ключевых фактов. Таким образом, передавая инструмент в их руки, мы даем им больше информации и знаем, что они не будут полагаться только на технологии, поскольку они могут совершать ошибки.

Могут ли детекторы выиграть гонку вооружений?

Приятно видеть команды из Facebook и Microsoft инвестирование в технологии для понимания и обнаружения дипфейков. В этой области необходимы дополнительные исследования, чтобы идти в ногу со скоростью прогресса технологии дипфейков.

Журналисты и платформы социальных сетей также должны выяснить, как лучше всего предупреждать людей о дипфейках при их обнаружении. Исследования показали, что люди помнят ложь, но не факт, что это была ложь. Будет ли то же самое с поддельными видео? Одного слова «Deepfake» в названии может быть недостаточно для противодействия некоторым видам дезинформации.

Deepfakes здесь, чтобы остаться. Управлять дезинформацией и защищать общественность будет сложнее, чем когда-либо, по мере того, как искусственный интеллект становится все более мощным. Мы являемся частью растущего исследовательского сообщества, которое бьется над этой угрозой, в котором обнаружение - лишь первый шаг.Беседа

Об авторах

Джон Сохраварди, докторант в области вычислительной техники и информационных наук, Рочестерского технологического института и Мэтью Райт, профессор компьютерной безопасности, Рочестерского технологического института

Эта статья переиздана из Беседа под лицензией Creative Commons. Прочтите оригинал гайд.