
Источник: Unsplash/CC0 Общественное достояние
Генеративный ИИ, технология, которая развивается с головокружительной скоростью, может нести в себе скрытые риски, которые могут подорвать общественное доверие и демократические ценности, говорится в исследовании, проведенном Университетом Восточной Англии (UEA).
В сотрудничестве с исследователями из Фонда Жетулио Варгаса (FGV) и Insper в Бразилии исследование показало, что ChatGPT демонстрирует предвзятость как в тексте, так и в изображениях, склоняясь к левым политическим ценностям, что поднимает вопросы о справедливости и подотчетности в его дизайне.
Исследование показало, что ChatGPT часто отказывается взаимодействовать с основными консервативными точками зрения, в то же время с готовностью производя левый контент. Такое неравное отношение к идеологиям подчеркивает, как такие системы могут искажать общественный дискурс и усугублять раскол в обществе.
Доктор Фабио Мотоки, преподаватель бухгалтерского учета в Норвичской школе бизнеса UEA, является ведущим исследователем статьи «Оценка политической предвзятости и несогласованности ценностей в генеративном искусственном интеллекте», опубликованной в Журнал экономического поведения и организации.
Доктор Мотоки сказал: «Наши результаты показывают, что инструменты генеративного ИИ далеко не нейтральны. Они отражают предубеждения, которые могут непреднамеренно формировать восприятие и политику».
Поскольку ИИ становится неотъемлемой частью журналистики, образования и разработки политики, в исследовании содержится призыв к прозрачности и нормативным гарантиям для обеспечения соответствия общественным ценностям и принципам демократии.
Системы генеративного искусственного интеллекта, такие как ChatGPT, меняют подход к созданию, потреблению, интерпретации и распределению информации в различных областях. Эти инструменты, хотя и являются инновационными, рискуют усилить идеологические предубеждения и повлиять на общественные ценности способами, которые не до конца понимаются или регулируются.
Соавтор исследования доктор Пиньо Нето, профессор экономики в Бразильской школе экономики и финансов EPGE, подчеркнул потенциальные социальные последствия.
Доктор Пиньо Нето сказал: «Неконтролируемые предубеждения в генеративном ИИ могут углубить существующие социальные разногласия, подрывая доверие к институтам и демократическим процессам.
«Исследование подчеркивает необходимость междисциплинарного сотрудничества между политиками, технологами и учеными для разработки систем ИИ, которые являются справедливыми, подотчетными и соответствуют социальным нормам».
Исследовательская группа использовала три инновационных метода для оценки политической ориентации в ChatGPT, совершенствуя предыдущие методы для достижения более надежных результатов. Эти методы сочетали в себе анализ текста и изображений, используя передовые инструменты статистики и машинного обучения.
Во-первых, в исследовании использовалась стандартизированная анкета, разработанная исследовательским центром Pew Research Center, для моделирования ответов среднестатистических американцев.
«Сравнивая ответы ChatGPT с реальными данными опроса, мы обнаружили систематические отклонения в сторону левых взглядов», — сказал доктор Мотоки. «Кроме того, наш подход продемонстрировал, как большие размеры выборки стабилизируют результаты ИИ, обеспечивая согласованность результатов».
На втором этапе перед ChatGPT была поставлена задача генерировать ответы в виде свободного текста на политически чувствительные темы.
В исследовании также использовалась RoBERTa, другая большая языковая модель, для сравнения текста ChatGPT на предмет согласования с левыми и правыми точками зрения. Результаты показали, что, хотя ChatGPT в большинстве случаев соответствовал левым ценностям, по таким темам, как военное превосходство, он иногда отражал более консервативные взгляды.
В финальном тесте были изучены возможности генерации изображений ChatGPT. Темы с этапа генерации текста были использованы для создания изображений, сгенерированных искусственным интеллектом, а выходные данные были проанализированы с помощью GPT-4 Vision и подтверждены с помощью Google Gemini.
«В то время как генерация изображений отражала текстовые предубеждения, мы обнаружили тревожную тенденцию», — сказал Виктор Ранжел, соавтор и студент магистратуры по государственной политике в Insper. «По некоторым темам, таким как расово-этническое равенство, ChatGPT отказался генерировать правые точки зрения, сославшись на опасения по поводу дезинформации. Однако изображения левого толка были созданы без колебаний».
Чтобы решить эти проблемы, команда использовала стратегию «джейлбрейка» для создания изображений с ограниченным доступом.
«Результаты были показательными», — сказал г-н Ранхель. «Не было никакого явного расхожденияили вредоносного контента, что поднимает вопросы о причинах этих отказов».
Д-р Мотоки подчеркнул более широкое значение этого вывода, сказав: «Это способствует дебатам вокруг конституционных гарантий, таких как Первая поправка США, и применимости доктрин справедливости к системам ИИ».
Методологические новшества исследования, в том числе использование мультимодального анализа, обеспечивают воспроизводимую модель для изучения систематической ошибки в системах генеративного ИИ. Эти результаты подчеркивают настоятельную необходимость подотчетности и гарантий при проектировании ИИ для предотвращения непреднамеренных социальных последствий.
Дополнительная информация:
Оценка политической предвзятости и рассогласования ценностей в генеративном искусственном интеллекте, Журнал экономического поведения и организации (2025).
Предоставлено
Университет Восточной Англии
Цитата :
Исследования показывают, что предвзятость генеративного ИИ представляет риск для демократических ценностей (3 февраля 2025 г.)
проверено 3 февраля 2025 года
от https://phys.org/news/2025-02-generative-ai-bias-poses-democratic.html
Этот документ защищен авторским правом. За исключением любых честных деловых отношений с целью частного обучения или исследований, никакие
Часть может быть воспроизведена без письменного разрешения. Содержание предоставляется исключительно в информационных целях.