Мошенники распространили в соцсетях видео с Дмитрием Нагиевым. Людям предлагают кликнуть на ссылку, чтобы поучаствовать в розыгрыше, и приводят на фишинговый сайт. Специалисты по безопасности называют ролик хорошо проработанным дипфейком: то есть лицо артиста «прикрутили» к чужому телу. Вот только Нагиев действительно снялся в таком видео — для других целей. Проблемы дипфейков и мошенничества это, впрочем, не отменяет.
Эксперты компании «Инфостистемы Джет», работающей в сфере защиты информации, сообщили РИА «Новости», что обнаружили в интернете дипфейк с Дмитрием Нагиевым. В ролике артист якобы предлагал зрителям поучаствовать в розыгрыше ценного приза. Для этого нужно было перейти на сайт, посетители которого теряли деньги. Через несколько дней такие мошеннические ресурсы, как правило, блокируют, но злоумышленники регистрируют новые.
«Спектр зловредного применения deep fake (мы для удобства читателей будем писать по-русски и склонять это название — прим. ред.) и подобных технологий очень широк: шантаж, дискредитация медийных персон и политических деятелей, нечестная конкуренция в бизнесе и политике», — отметила специалист компании по нейросетям Анна Олейникова.
Бороться с мошенниками будут их же оружием: специалисты обучат нейросети искать и распознавать дипфейки. Обычный пользователь тоже может заметить разницу между подделкой и реальным видео: герои таких роликов не моргают, глаза все время открыты или полузакрыты. При поворотах головы или смене освещения вокруг фигуры появляется странный шлейф.
Технология Deep Learning позволяет менять речь человека и движения его губ на видео. В компании опасаются, что инновация будет пользоваться спросом у мошенников и провокаторов.
В свою очередь, глава компании «Нейросети Ашманова» Станислав Ашманов сообщил «360», что очень трудно создать правдоподобный дипфейк. Для этого необходимо множество разных данных и сложный алгоритм. Пока все, что появляется в Сети, страдает от недостатка качества и выглядит довольно неправдоподобно.
«Может быть, есть фейки, про которые мы даже не знаем, что это фейки. А в других случаях замечаем, что это подделки. По-моему, пока технология еще не созрела, чтобы делать неотличимые от реальности видео дешево и легко», — добавил он.
В этом можно убедиться и самим. Взять хотя бы недавнее видео с Александром Невским, которое вставили в фильм «Терминатор 2».
Настолько хорошо, что реально
Вот только видео с Нагиевым — плохой пример, чтобы говорить о мошенничестве. Директор артиста Елена Шайкина заявила «360», что ролик, о котором идет речь, реальный, просто старый. Акция, показанная в нем, проходила больше года назад, и шоумен принимал участие в рекламе.
«Просто кто-то вспомнил старое видео. Ни о каких фейковых видео речи не идет, — подчеркнула Шайкина. — Информация эта, по ее словам, появилась потому, что «эксперты компании („Инфостистемы Джет“ — прим. ред.) хотят с нами работать, а мы не хотим и не работаем».
Специалист «Инфостистем Джет» Анна Олейникова объяснила «360», что сотрудники компании звонили представителю Нагиева, но тот ответил, что ничего о видео не знает, и предположил, что это мошенничество. По ее словам, цели сотрудничать с артистами и другими деятелями шоу-бизнеса у компании нет.
«Мы, научные исследователи, научные деятели, развиваемся в области искусственного интеллекта, нейронных сетей, разрабатываем продукты. Нам интересны <…> не какие-то публичные деятели культуры, [наша задача] предупредить пользователей», — добавила она.
Дорога в суд
Качественные, практически неотличимые от реальности дипфейки с иностранными актерами активно начали появляться около года назад — в основном для привлечения подписчиков в блогах. Так, например, Джека Николсона в «Сиянии» заменили на Джима Керри, а Тома Круза поместили в «Американского психопата».
Со случаем мошенничества с использованием российских звезд в «Инфосистемах Джет» столкнулись впервые на Facebook. В ролике, по словам представителя компании, фигурировали певец Григорий Лепс и еще одна знаменитость.
Отследить мошенников трудно. Google быстро блокирует фишинговые сайты, а злоумышленники открывают новые.
Юрист Андрей Лухин пояснил «360», что если сведения о видеоролике как-то затрагивают честь, достоинство, деловую репутацию артиста или правообладателя контента, то они могут обратиться в суд. Если этот факт будет доказан, можно требовать опровержения или удаления данных либо взыскание морального ущерба.
«Но нужно доказать, что данная информация не является достоверной, например, утратила актуальность. Либо, если пишут, что видео является фальшивкой, то в соответствии с пленумом Верховного суда истец должен доказать, что комментарий размещен в публичном доступе — интернете, является порочащим честь и достоинство и ложным», — добавил Лухин.
Размещение же реальных дипфейков со знаменитостями, призывающими что-либо сделать, наказывается по 159 статье УК РФ «Мошенничество». Либо, если обмана не было, но голос или изображение использовались без разрешения, можно просто обратиться в суд с требованием взыскать компенсацию.