Тайбэй, Тайвань — «Американская мечта. Говорят, это для всех, но так ли это на самом деле?»
Так начинается 65-секундный анимационный видеоролик, созданный искусственным интеллектом, который затрагивает острые проблемы в Соединенных Штатах: от наркозависимости и уровня тюремного заключения до растущего имущественного неравенства.
Когда грозовые тучи собираются над городским пейзажем, напоминающим Нью-Йорк, слова «АМЕРИКАНСКАЯ МЕЧТА» висят на темнеющем небе, когда видео заканчивается.
Идея ясна: несмотря на обещания лучшей жизни для всех, Соединенные Штаты находятся в окончательном упадке.
Видео под названием «Американская мечта» или «Американский мираж» является одним из сегментов, транслируемых китайской государственной телекомпанией CGTN и широко распространяемых в социальных сетях в рамках мультсериала «Расколотая Америка».
Другие видеоролики из этой серии содержат аналогичные заголовки, которые вызывают образы антиутопического общества, например, «Американские рабочие в смятении: результат несбалансированной политики и экономики» и «Разоблачение реальной угрозы: военно-промышленный комплекс Америки».
Помимо резкого антиамериканского послания, все видео имеют одну и ту же гиперстилизованную эстетику, созданную искусственным интеллектом, и сверхъестественный компьютерный звук.
CGTN и посольство Китая в Вашингтоне не ответили на запросы о комментариях.
Американские рабочие в смятении: результат несбалансированной политики и экономики #ПервыйГолос pic.twitter.com/JMYTyN8P2O
— CGTN (@CGTNOfficial) 17 марта 2024 г.
Серия «Расколотая Америка» — это лишь один из примеров того, как искусственный интеллект (ИИ) с его способностью генерировать высококачественные мультимедиа с минимальными усилиями за секунды начинает формировать пропагандистские усилия Пекина, направленные на подрыв позиций Соединенных Штатов в мире.
Генри Эйдер, британский эксперт в области генеративного искусственного интеллекта, сказал, что, хотя сериал CGTN не пытается выдать себя за настоящее видео, он является наглядным примером того, как искусственный интеллект значительно облегчил и удешевил производство контента.
«Причина, по которой они сделали это таким образом, заключается в том, что вы можете нанять аниматора и художника по озвучке, чтобы сделать это, но это, вероятно, в конечном итоге отнимет больше времени. Вероятно, в конечном итоге это обойдется дороже», — сказал Адждер телеканалу «Аль-Джазира».
«Это более дешевый способ масштабировать создание контента. Когда вы сможете собрать вместе все эти различные модули, вы сможете создавать изображения, вы можете анимировать эти изображения, вы можете создавать просто видео с нуля. Вы можете генерировать довольно убедительный и человечный текст в речь. Итак, у вас есть целый конвейер создания контента, автоматизированный или, по крайней мере, сгенерированный синтетически».
Китай уже давно использует огромный охват и безграничную природу Интернета для проведения кампаний влияния за рубежом.
Огромная армия интернет-троллей Китая, известная как «умао», стала известна более десяти лет назад тем, что наводнила веб-сайты тезисами Коммунистической партии Китая.
С появлением социальных сетей пропагандистские усилия Пекина были обращены к таким платформам, как X и Facebook, а также к онлайн-влияниям.
Когда протесты Black Lives Matter охватили США в 2020 году после убийства Джорджа Флойда, китайские государственные аккаунты в социальных сетях выразили свою поддержку, даже несмотря на то, что Пекин ограничил критику своей практики дискриминации этнических меньшинств, таких как мусульман-уйгуров, у себя дома.
«Я не могу дышать». pic.twitter.com/UXHgXMT0lk
— Хуа Чуньин Хуа Чуньин (@SpokespersonCHN) 30 мая 2020 г.
В прошлогоднем отчете Центра анализа угроз Microsoft говорится, что искусственный интеллект упростил создание вирусного контента и, в некоторых случаях, усложнил идентификацию материалов, созданных государственным субъектом.
По словам Microsoft, поддерживаемые государством субъекты внедряют контент, созданный искусственным интеллектом, по крайней мере, с марта 2023 года, и такой «относительно высококачественный визуальный контент уже привлек более высокий уровень взаимодействия со стороны подлинных пользователей социальных сетей».
«В прошлом году Китай отточил новую способность автоматически генерировать изображения, которые он может использовать для операций влияния, призванных имитировать американских избирателей по всему политическому спектру и создавать противоречия по расовым, экономическим и идеологическим линиям», — говорится в докладе.
«Эта новая возможность основана на искусственном интеллекте, который пытается создать высококачественный контент, который может стать вирусным в социальных сетях в США и других демократических странах».
Microsoft также выявила более 230 сотрудников государственных СМИ, выдающих себя за влиятельных лиц в социальных сетях, способных охватить 103 миллиона человек как минимум на 40 языках.
Их тезисы повторяли сценарий, аналогичный серии видеороликов CGTN: Китай находится на подъеме и побеждает в борьбе за экономическое и технологическое превосходство, в то время как США движутся к краху и теряют друзей и союзников.
Поскольку модели искусственного интеллекта, такие как Sora от OpenAI, создают все более гиперреалистичные видео, изображения и аудио, контент, созданный искусственным интеллектом, становится все труднее идентифицировать и стимулирует распространение дипфейков.
Согласно отчету, опубликованному в прошлом году RAND, аналитическим центром, частично финансируемым правительством США, астротурфинг, практика создания видимости широкого социального консенсуса по конкретным вопросам, может быть названа «революционным улучшением».
Серия видео CGTN, хотя иногда и использует неуклюжую грамматику, повторяет многие жалобы, которыми делятся граждане США на таких платформах, как X, Facebook, TikTok, Instagram и Reddit — веб-сайтах, которые считываются моделями искусственного интеллекта для обучения данных.
В своем отчете Microsoft заявила, что, хотя появление ИИ не делает перспективу вмешательства Пекина в президентские выборы в США в 2024 году более или менее вероятной, «весьма вероятно, что любое потенциальное вмешательство в выборы станет более эффективным, если Пекин действительно решит вмешаться». .
США — не единственная страна, обеспокоенная перспективой создания контента, генерируемого искусственным интеллектом, и астротурфинга в преддверии бурного года выборов.
К концу 2024 года более чем в 60 странах пройдут выборы, которые повлияют на 2 миллиарда избирателей в рекордный для демократии год.
Среди них – демократический Тайвань, который 13 января избрал нового президента Уильяма Лай Чинг-те.
Тайвань, как и США, часто становится объектом операций влияния Пекина из-за его спорного политического статуса.
Пекин претендует на Тайвань и прилегающие к нему острова как на свою территорию, хотя де-факто он функционирует как независимое государство.
В преддверии январских выборов более 100 дипфейковых видеороликов, на которых ведущие фейковых новостей нападают на уходящего президента Тайваня Цай Инь-вэнь, были приписаны Министерству государственной безопасности Китая, сообщила газета Taipei Times со ссылкой на источники в национальной безопасности.
Как и в серии видео CGTN, этим видеороликам не хватало сложности, но они показывали, как искусственный интеллект может способствовать распространению дезинформации в больших масштабах, сказал Чихао Ю, содиректор Тайваньского исследовательского центра информационной среды (IORG).
Ю сказал, что его организация отслеживала распространение контента, созданного искусственным интеллектом, в LINE, Facebook, TikTok и YouTube во время выборов и обнаружила, что аудиоконтент, созданный искусственным интеллектом, был особенно популярен.
«[The clips] часто распространяются через социальные сети и представляются как утекшие/секретные записи политических деятелей или кандидатов, касающихся скандалов, связанных с личными делами или коррупцией», — сказал Ю «Аль-Джазире».
По словам Адждера, эксперта по искусственному интеллекту, людям сложнее отличить дипфейковый звук от реального по сравнению с подделанными или сгенерированными искусственным интеллектом изображениями.
В недавнем случае в Великобритании, где всеобщие выборы ожидаются во второй половине 2024 года, лидер оппозиции Кейр Стармер был показан в фейковом аудиоклипе, на котором видно, как он словесно оскорбляет сотрудников.
Столь убедительное искажение ранее было бы невозможно без «безупречного импрессиониста», сказал Адждер.
«Государственные или связанные с ним субъекты, у которых есть мотивы – у них есть вещи, которых они потенциально пытаются достичь – теперь имеют новый инструмент, чтобы попытаться достичь этого», – сказал Адждер.
«И некоторые из этих инструментов просто помогут им масштабировать то, что они уже делали. Но в некоторых контекстах это вполне может помочь им достичь этих целей, используя совершенно новые средства, на которые правительствам уже сложно отреагировать».