По мере приближения президентских выборов в США 2024 года социальные сети более насыщены дезинформацией, чем когда-либо прежде. Традиционная тактика дезинформации все еще действует, но теперь мы также сталкиваемся с дезинформацией, генерируемой ИИ, — проблемой, которая по большей части остается нерешенной.
В недавнем отчете Центра по противодействию цифровой ненависти (CCDH) подчеркивается влияние изображений, созданных ИИ. На них часто изображены вымышленные ветераны, полицейские и обычные граждане, получающие миллионы взаимодействий и влияющие на общественное мнение. Эти изображения, призванные вызывать эмоциональные реакции, не помечаются на Facebook как созданные искусственным интеллектом, несмотря на политику прозрачности платформы.
CCDH, неправительственная организация, целью которой является остановить распространение разжигания ненависти и дезинформации в Интернете, проанализировала около 170 постов, созданных искусственным интеллектом, распространившихся в период с июля по октябрь 2024 года. Эти изображения были опубликованы более 476 000 раз и собрали более 2,4 миллиона взаимодействий. Они не были помечены как созданные искусственным интеллектом, несмотря на собственную политику Facebook.
Изображения, как правило, используют аналогичный подход. Они используют мощные символы, такие как американские флаги или солдаты, и пытаются решить текущие проблемы, такие как права ветеранов или иммиграция.
Яркий пример, приведенный в отчете, изображает сфабрикованного ветерана с табличкой с надписью: «Они возненавидят меня за это, но изучение английского языка должно быть требованием для получения гражданства». Только этот пост собрал 168 000 взаимодействий, и большинство комментаторов выразили свое согласие. На других изображениях изображены фальшивые ветераны, выступающие против прощения студенческих кредитов или настаивающие на проведении месяца ветеранов, чтобы конкурировать с Месяцем гордости, и все это призвано найти отклик у ключевых (обычно консервативных) демографических групп избирателей.
Несмотря на едва заметные признаки создания ИИ — искаженные руки, смещенный или бессмысленный текст на униформе и расплывчатый фон — большинство пользователей, похоже, не подозревают, что взаимодействуют с искусственным контентом. Таким образом, они неосознанно способствуют распространению цифровой дезинформации.
ИИ уже обманывает людей
Meta, материнская компания Facebook, в начале 2024 года представила политику маркировки ИИ, обещая прозрачность изображений, созданных ИИ. CCDH не обнаружил никаких следов этих этикеток.
Неясно, не смог или не захотел Facebook пометить эти изображения как созданные искусственным интеллектом. Но в конечном итоге эти сообщения обманули многих пользователей. Пользователи Facebook, полагающиеся на защиту платформы, по большей части остаются в неведении, не в силах различить, является ли изображение подлинной рекламой или синтетическим творением.
Кроме того, в отчете подчеркивается, что инструменты Facebook для сообщений о пользователях не предоставляют четкого способа отметить подозрительный контент, созданный искусственным интеллектом. Хотя пользователи могут сообщать о сообщениях, содержащих разжигание ненависти или дезинформацию, конкретной возможности для манипулирования СМИ не существует. Этот пробел оставляет пользователей Facebook без четкого способа предупредить модераторов о политическом контенте, создаваемом искусственным интеллектом, который может исказить восприятие в критический период выборов.
CCDH также обнаружила, что изображения, явно нацеленные на публику в США, были созданы страницами за пределами США. Из десяти наиболее активных проанализированных страниц шесть управляются из-за пределов США. Они базируются в таких странах, как Марокко, Пакистан и Индонезия. Эти страницы, администрируемые иностранцами, в совокупности привлекли более 1,5 миллионов взаимодействий к своему контенту, созданному искусственным интеллектом, формируя дискурс о политике США из-за границы. Несмотря на иностранную администрацию, эти страницы представляют собой подлинно американские, на которых изображены личности, выглядящие доморощенными.
Эти изображения нацелены на определенную демографическую группу.
Сообщения часто нацелены на уязвимых, менее технически подкованных избирателей. Эти сфабрикованные изображения направлены на использование эмоциональных призывов и патриотических символов, что делает их очень влиятельными и очень опасными. Например, изображения фальшивых ветеранов призваны вызвать уважение и восхищение, придавая вес политическим посланиям, которые они, по всей видимости, поддерживают. Для многих избирателей военная служба глубоко связана с патриотизмом, что делает эту поддержку весьма убедительной.
Этот подход также нацелен на разочарованных избирателей.
В отчете описываются многочисленные случаи, когда эти искусственные ветераны появляются с политическими заявлениями, такими как «Ветераны заслуживают большего, чем быть вторыми после студенческих кредитов» или «Может быть, это только я, но я считаю, что ветераны заслуживают гораздо лучших льгот, чем те, которые предлагаются иммигрантам без документов». Оба настроения нацелены на конкретные политические разочарования среди определенных сегментов избирателей, апеллируя к тем, кто считает, что их ценности недостаточно представлены или игнорируются.
Эта тактика отражает более широкую тенденцию онлайн-дезинформации, когда созданные ИИ персонажи обслуживают нишевые политические идентичности, создавая сообщения, специально подобранные для того, чтобы найти отклик у конкретных групп. Это уже классическая схема дезинформации: имитируя «средние» американские взгляды, эти посты затрагивают культурные дебаты и усиливают вызывающие разногласия темы. ИИ просто добавляет к этому новый поворот.
Технологические компании должны взять на себя ответственность
Самый простой способ решить эту проблему — облегчить пользователям возможность сообщать о подозрениях в манипулировании СМИ. Однако на самом деле это не решит проблему. К тому времени, когда у вас будет достаточно отчетов и кто-то действительно проверит изображение, ущерб будет уже нанесен.
Поскольку ИИ продолжает развиваться, платформы социальных сетей должны адаптировать свою политику, чтобы обеспечить ответственное использование технологии. Ответственность за обнаружение манипуляций не может лежать исключительно на пользователях. Для Facebook это означает внедрение надежных процессов обнаружения и маркировки, которые активно информируют пользователей, когда они сталкиваются с синтетическим контентом.
Такие платформы, как Facebook, оказывают большое влияние на общественное мнение. И их политика – или ее отсутствие – имеет реальные последствия для демократических процессов. С приближением президентских выборов в США для компаний как никогда важно быть прозрачными и бороться с дезинформацией. К сожалению, похоже, что на самом деле этого не происходит.
Поскольку грань между аутентичным и искусственным контентом стирается, общество должно иметь четкое представление о том, как бороться с подобными вещами (и кто несет за это ответственность). Проблемы такого типа будут только усугубляться.
Полностью отчет можно прочитать здесь.