Генеративные системы искусственного интеллекта, такие как ChatGPT, обучаются на больших наборах данных для создания письменного, визуального или аудиоконтента в ответ на запросы. При загрузке реальных изображений некоторые алгоритмы могут создавать фальшивые фотографии и видео, известные как дипфейки.
Контент, созданный с помощью систем генеративного искусственного интеллекта (ИИ), играет роль на президентских выборах 2024 года. Хотя эти инструменты можно использовать безвредно, они позволяют злоумышленникам создавать дезинформацию быстрее и реалистичнее, чем раньше, потенциально увеличивая свое влияние на избирателей.
Внутренние и зарубежные противники могут использовать дипфейки и другие формы генеративного искусственного интеллекта для распространения ложной информации о платформе политика или фальсификации его выступлений, сказал Томас Скэнлон, главный научный сотрудник Института разработки программного обеспечения Университета Карнеги-Меллона и адъюнкт-профессор Колледжа информационных систем Хайнца. и государственная политика.
«Обеспокоенность по поводу дипфейков заключается в том, насколько правдоподобными они могут быть и насколько проблематично отличить их от подлинных кадров», — сказал Скэнлон.
По данным Associated Press, избиратели видели больше нелепого контента, созданного искусственным интеллектом (например, фотографии Дональда Трампа, сидящего верхом на льве), чем натиск гиперреалистичных дипфейков, полных лжи. Тем не менее, Скэнлон обеспокоен тем, что избиратели будут подвергаться более вредному генерирующему контенту в день выборов или незадолго до него, например, видеороликам, на которых сотрудники избирательных участков заявляют, что открытое место для голосования закрыто.
По его словам, такого рода дезинформация может помешать избирателям проголосовать, поскольку у них будет мало времени на исправление ложной информации. В целом, по данным университетского Блок-центра технологий и общества, расположенного в Колледже информационных систем и государственной политики Хайнца, обман, создаваемый ИИ, может еще больше подорвать доверие избирателей к демократическим институтам страны и выборным должностным лицам.
«Людей постоянно бомбардируют информацией, и потребитель должен определить: какова ее ценность, а также какова их уверенность в ней? И я думаю, что именно здесь люди могут испытывать трудности», — сказал Рэндалл Тшечак. , директор программы магистра наук в области политики и управления информационной безопасностью (MSISPM) Колледжа Хайнца.
Скачки в генеративном искусственном интеллекте
По словам Скэнлона, на протяжении многих лет люди распространяли дезинформацию, манипулируя фотографиями и видео с помощью таких инструментов, как Adobe Photoshop. Эти фейки легче распознать, и злоумышленникам труднее воспроизвести их в больших масштабах. Однако генеративные системы искусственного интеллекта позволяют пользователям быстро и легко создавать контент, даже если у них нет модных компьютеров или программного обеспечения.
По словам преподавателей колледжа Хайнц, люди влюбляются в дипфейки по разным причинам. Если зритель использует смартфон, он, скорее всего, будет винить в плохом качестве дипфейка плохую сотовую связь. Если дипфейк повторяет убеждение, которое уже есть у зрителя (например, что политический кандидат сделает изображенное заявление), зритель с меньшей вероятностью будет его внимательно изучать.
У большинства людей нет времени проверять каждое видео, которое они видят, а это означает, что дипфейки со временем могут посеять сомнения и подорвать доверие, написала в своем заявлении Ананья Сен, доцент кафедры информационных технологий и менеджмента в колледже Хайнц. Он обеспокоен тем, что прямые трансляции подсчета голосов, хотя и предназначены для повышения прозрачности, могут быть использованы для дипфейков.
Как только ложная информация станет известна, у вас будет мало возможностей исправить ее и загнать джина обратно в бутылку.
В отличие от предыдущих способов создания дезинформации, генеративный искусственный интеллект также может использоваться для отправки индивидуальных сообщений онлайн-сообществам, говорит Ари Лайтман, профессор цифровых медиа и маркетинга в колледже Хайнц. Если один из участников сообщества случайно поделится контентом, другие могут поверить его сообщению, поскольку доверяют человеку, который им поделился.
Злоумышленники «следят за моделями поведения потребителей и за тем, как люди взаимодействуют с технологиями, надеясь, что один из них нажмет на часть информации, которая может привести к вирусному распространению дезинформации», — сказал Лайтман.
Трудно разоблачить виновников дезинформации, созданной ИИ. Создатели могут использовать виртуальные частные сети и другие механизмы, чтобы скрыть свои следы. По словам Лайтмана, страны, имеющие враждебные отношения с США, вероятно, используют эту технологию в качестве оружия, но он также обеспокоен отдельными лицами и террористическими группами, которые могут действовать незаметно.
Что нужно знать избирателям
По словам Скэнлона, люди должны доверять своей интуиции и пытаться проверить видео, которые, по их мнению, могут быть дипфейками. «Если вы видите видео, которое вызывает у вас сомнения в его подлинности, вам следует признать это сомнение», — сказал он.
По мнению Скэнлона, вот несколько признаков того, что видео может быть дипфейком:
- Сокращение при монтаже: современные системы искусственного интеллекта в значительной степени неспособны создавать длинные дипфейковые видео с одной точки зрения. Угол видео может меняться каждые несколько секунд, или объект может быть показан с нескольких сторон с прерывистой последовательностью.
- Несоответствие освещения: видеоролики Deepfake часто содержат тени, которые (что нереально) исходят из более чем одного направления или присутствуют только в части видео. Часто подсветка видео мерцает.
- Несовпадающие реакции: на видео может быть изображен субъект, говорящий что-то шокирующее с невозмутимым выражением лица, или наоборот. Если в видео присутствуют другие люди, их реакция может не соответствовать сообщению или тону субъекта.
- Несоответствия в оттенке кожи или отсутствие симметрии лица: зрители могут заметить значительные различия в оттенке кожи объекта, особенно если в кадр включены его руки или руки. У субъекта могут быть уши или глаза, которые кажутся непропорциональными друг другу.
- Проблемы с очками и серьгами. Зрители могут увидеть, что у объекта съемки отсутствуют или не подходят серьги или очки не подходят.
Центр блоков составил руководство, которое поможет избирателям ориентироваться в генеративном искусственном интеллекте в политических кампаниях. Руководство призывает избирателей задавать кандидатам вопросы об использовании ими ИИ и отправлять своим избранным представителям письма в поддержку более строгих правил ИИ.
«Информированный избиратель должен потратить столько времени, сколько ему необходимо, чтобы поверить в информацию, которая используется в процессе принятия решений», — сказал Тшечак.
Законодательный ландшафт
Не существует всеобъемлющего федерального законодательства, регулирующего дипфейки, а несколько законопроектов, направленных на защиту выборов от угроз ИИ, застопорились в Конгрессе. В некоторых штатах приняты законы, запрещающие создание или использование дипфейков в злонамеренных целях, но не все они напрямую связаны с вмешательством в выборы.
Сенат штата Пенсильвания внес законопроект, который будет налагать гражданские наказания на тех, кто распространяет предвыборную рекламу, содержащую созданные искусственным интеллектом изображения политических кандидатов, при условии, что суды смогут доказать злой умысел. Законопроект еще не вынесен на голосование.
Существующих законов недостаточно, чтобы регулировать использование дипфейков, сказал Скэнлон. Но, добавил он, неясная природа киберпреступлений означает, что любое федеральное регулирование, скорее всего, будет сложно обеспечить.
«Правоприменение, вероятно, будет выглядеть как периодическое приведение в пример людей и групп в качестве сдерживающего фактора», — сказал Скэнлон.
Помимо внедрения и обеспечения соблюдения правил, Лайтман заявил, что стране необходимо решить проблему политической поляризации и снижения доверия общества к институтам, которые позволяют дезинформации разгораться.
«Все, на что мы смотрим, — это либо сарказм, либо совершенно лживая пропаганда. И мы не доверяем друг другу», — сказал он. «Мы должны вернуться к общественному пониманию того, как то, чем мы занимаемся, подрывает доверие. Если мы сможем это понять, возможно, мы сможем предпринять шаги, чтобы обратить это вспять».
Предоставлено Университетом Карнеги-Меллон.
Цитирование : Как обнаружить дипфейки ИИ, распространяющие дезинформацию о выборах (2024 г., 18 октября), получено 18 октября 2024 г. с https://phys.org/news/2024-10-ai-deepfakes-election-misinformation.html.
Этот документ защищен авторским правом. За исключением любых добросовестных сделок в целях частного изучения или исследования, никакая часть не может быть воспроизведена без письменного разрешения. Содержимое предоставлено исключительно в информационных целях.