Компания OpenAI обнаружила, что выявила случаи использования своих моделей искусственного интеллекта (ИИ) для создания и распространения дезинформации, связанной с Россией, Китаем, Ираном и Израилем.
Об этом писать Файнэншл Таймс.
Отмечается, что возможности моделей ШИ OpenAI были использованы по крайней мере в пяти операциях скрытого влияния для генерации текста и изображений в больших объемах, с меньшим количеством речевых ошибок, чем раньше, а также для генерации комментариев или ответов на свои собственные посты.
«Контент был сосредоточен на вопросах, вторжении России в Украину, конфликте в Газе, выборах в Индии, политике в Европе и США, а также критике китайского правительства со стороны китайских диссидентов и иностранных правительств», — говорится в сообщении.
Реклама:
Кроме того, ИИ использовали для повышения собственной производительности, применяя его для таких задач, как отладка кода или исследование активности пользователей в социальных сетях.
Главный исследователь по разведке и расследованиям OpenAI Бен Ниммо заявил, что использование моделей OpenAI не привело к значительному повышению уровня вовлечённости или охвата в результате кампаний.
OpenAI добавили, что стремятся разоблачать такие дезинформационные кампании и работают над собственными инструментами на основе ИИ, чтобы сделать выявление и анализ более эффективными.
Реклама:
В отчете OpenAI также говорится о нескольких известных государственных дезинформационных субъектах, которые использовали ее инструменты. Среди них российская операция Doppelganger, впервые обнаруженная в 2022 году и которая обычно пытается взорвать поддержку Украины.
Также китайская сеть, известная как Spamouflage, продвигающая интересы Пекина за границей. Обе кампании использовали модели OpenAI для создания текста или комментариев на нескольких языках перед размещением на таких платформах, как X Илона Маска.
В докладе говорится и о российской операции под названием «Плохая грамматика», о которой ранее не сообщалось, и которая использовала модели OpenAI для настройки кода для запуска бота Telegram и создания кратких политических комментариев на русском и английском языках, которые затем публиковались в Telegram.
Компания также сообщила, что предотвратила произраильскую дезинформацию на заказ, которую, вероятно, осуществляла тель-авивская компания по управлению политическими кампаниями под названием STOIC, использовавшая свои модели для создания статей и комментариев в Instagram, Facebook и X, принадлежащих Meta.
Напомним:
Дезинформация и ложная информация впервые возглавили список самых больших краткосрочных глобальных рисков в мире.
Экономическая правда.
(function(d, s, id) { var js, fjs = d.getElementsByTagName(s)[0]; if (d.getElementById(id)) return; js = d.createElement(s); js.id = id; js.src="https://connect.facebook.net/uk_UA/sdk.js#xfbml=1&version=v2.12&appId=166620513397294&autoLogAppEvents=1"; fjs.parentNode.insertBefore(js, fjs);
}(document, 'script', 'facebook-jssdk'));