Нейросети научились создавать свою реальность. Они могут «заставить» политика сказать то, чего он не говорил, «раздеть» любую знаменитость или превратить Трампа и Путина в одного человека


Из открытых источников

Бывший президент США Барак Обама в видеообращении назвал своего приемника Дональда Трампа «засранцем», Киану Ривз сыграл главного героя фильма «Форрест Гамп», а Джон Сноу извинился перед фанатами за финал «Игры престолов». Все это, конечно же, неправда. Но в интернете гуляет множество видеороликов, где политики или актеры произносят фразы, которых никогда не говорили. И выглядят такие фейковые ролики, именуемые дипфейками , пугающе достоверно.

Дипфейк – это

В грубом переводе с английского deepfake означает «глубокая подделка» (deep ‒ глубокий, fake ‒ фальшивка). Технология дипфейков заставляет человека на видео говорить то, что он не произносил, и делать то, что он никогда не делал. В большинстве случаев для создания таких роликов используется генеративно-состязательная нейросеть (GAN) , которую в 2014 году создал студент Стэнфордского университета Ян Гудфеллоу.

Процесс создания дипфейка, не углубляясь в сложные технические подробности, выглядит так: один алгоритм генеративно-состязательной нейросети изучает фото и видео с определенным человеком и создает изображение, буквально «состязаясь» со вторым алгоритмом, пока тот не начнет путать копию и оригинал. Таким образом изображение одного человека подобием маски накладывается на другого.


AP

The Economist объясняет процесс создания дипфейка на примере видео с Обамой. Cоздание фейкового ролика начинается со сбора фотографий экс-президента США. Снимки необходимо загрузить в программу, которая установит статистическую связь между визуальным обликом Обамы и любым его аспектом, который нужно подделать.

«Если вы хотите попросить Обаму сказать то, что он никогда не говорил, тогда вы должны направить свое программное обеспечение на изучение связей между конкретными словами и формой рта Обамы, когда он их произносит. Чтобы прикрепить его лицо к движущемуся телу другого человека, вы должны направить ПО на изучение связей между лицом и телом», — пишет издание.

Чтобы сделать мультимедиа более реалистичными, можно заставить программное обеспечение конкурировать с собственной копией – одна версия генерирует дипфейки, а другая пытается их распознать.

Плюсы и минусы

Обычный пользователь не всегда может отличить настоящее видео от смонтированного. И по мнению одного из ведущих экспертов в области дипфейков Хао Ли, в течение полугода-года технологии достигнут такого уровня, что поддельное видео уже будет невозможно отличить от оригинала.

«У нас есть лишь от 6 до 12 месяцев, чтобы научиться распознавать подделки, неотличимые от реальности… Вскоре наступит момент, когда мы больше не сможем обнаружить (подделки, — ред.), поэтому нам придется искать другие типы решений», — сказал Хао Ли в интервью CNBC, записанном в сентябре текущего года.


Из открытых источников

Политические дипфейки перед американскими выборами 2020 года уже запретили в Калифорнии. В начале сентября аналогичное решение приняли законодатели Техаса.

Как отмечается в статье Foreign Affairs, использование дипфейков на политической арене будет действительно пугающим явлением.

В Китае публикацию дипфейков отнесли к уголовным преступлениям. После вступления в силу соответствующего закона с января 2020 года все фейковые видео должны сопровождаться специальной отметкой, которая будет предупреждать пользователей, что это ненастоящая новость.

При этом, несмотря на существование обоснованных аргументов против дипфейков, существуют также их сторонники, которые, например, считают, что эта технология может стать полезной для киноиндустрии.

Дипфейк в действии

Один из самых популярных примеров дипфейка, который мы уже упоминали выше, ‒ это «видеообращение» бывшего американского лидера Барака Обамы, в котором он называет Дональда Трампа «засранцем». Разумеется, что ничего подобного Обама не говорил, а ролик на самом деле был создан с помощью программы Fakeapp и графического редактора Adobe After Effects.

Опубликовали его в 2018 году американский режиссер Джордан Пил и издание BuzzFeed с целью показать, как в будущем будут выглядеть фейковые новости.

«В случае катастрофы на Луне». Так назывался текст, который написал спичрайтер 37-го президента США Ричарда Никсона на случай гибели экипажа во время высадки на Луну в 1969-м.

Учитывая то, что миссия «Аполлон-11» завершилась успехом, подготовленная заранее траурная речь Никсону не понадобилась. Возвращаясь к дипфейкам, отметим, что президент все-таки «сообщил» о гибели экипажа. Соответствующий фейковый видеоролик был представлен на Международном кинофестивале в Амстердаме.

Для создания этого видео сотрудникам Центра дополненной реальности Массачусетского технологического института сперва пришлось визуализировать речь Никсона, а затем воспроизвести его голос. К слову, для этого команда сотрудничала с украинским стартапом Respeecher, который с помощью нейросетей воссоздает голос любого человека.

А вот так выглядит «превращение» американской актрисы Дженнифер Лоуренс в актера Стива Бушеми.

Следующий дипфейк обязателен к просмотру поклонникам Николаса Кейджа. На этом ролике лицо актера появляется в кадрах из различных фильмов .

Американская телеведущая Опра Уинфри с лицом боксера Майка Тайсона :

Или появление Джокера в фильме «Истории рыцаря»:

«Игра престолов» тоже не осталась в стороне. После выхода последнего сезона сериала появился ролик, в котором один из героев шоу Джон Сноу просит прощения за финал саги .

А в этом дипфейке можно посмотреть на Киану Ривза в роли Фореста Гампа (на самом деле главного героя одноименного фильма сыграл американский актер Том Хэнкс):

В июне этого года появилось фейковое видео с владельцем Facebook Марком Цукербергом , в котором он говорит о том, что «один человек владеет ворованными данными о миллиардах людей, все их тайны, их жизнь и будущее».

И наконец видео, которое мы анонсировали еще в самом начале: «объединение» с помощью нейросети Трампа и Путина . Создателем дипфейка является моушен-дизайнер и художник из Берлина Александр Курт.

Бонус: по этой ссылке вы перейдете на сайт, где можно испытать свои силы в распознавании лиц и попробовать отличить портреты реальных людей от тех, что создает нейросеть. Предупреждаем! Угадывать можно до бесконечности.