Newswise — Исследователи Технологического института штата Вирджиния обнаружили ограничения в способности ChatGPT предоставлять информацию о конкретном регионе по вопросам экологической справедливости. Их результаты, опубликованные в журнале «Телематика и информатика», предполагают возможность географических предубеждений, существующих в современных моделях генеративного искусственного интеллекта (ИИ).

ChatGPT — это модель большого языка, разработанная OpenAI Inc., исследовательской организацией в области искусственного интеллекта. ChatGPT предназначен для понимания вопросов и генерации текстовых ответов на основе запросов пользователей. Эта технология имеет широкий спектр применений: от создания контента и сбора информации до анализа данных и языкового перевода.

Обзор по округам

«Для географа и специалиста по геопространственным данным генеративный искусственный интеллект — это инструмент с мощным потенциалом», — сказал доцент Юнхван Ким из Колледжа природных ресурсов и окружающей среды. «В то же время нам необходимо изучить ограничения технологии, чтобы будущие разработчики осознавали возможность предвзятости. Это было движущей мотивацией данного исследования».

Используя список 3108 округов в сопредельных Соединенных Штатах, исследовательская группа попросила интерфейс ChatGPT ответить на подсказку о проблемах экологической справедливости в каждом округе. Исследователи выбрали экологическую справедливость в качестве темы, чтобы расширить круг вопросов, обычно используемых для проверки эффективности инструментов генеративного искусственного интеллекта. Задание вопросов по округам позволило исследователям сопоставить ответы ChatGPT с социально-демографическими факторами, такими как плотность населения и средний доход домохозяйства.

Ключевые результаты указывают на ограничения

Обследуя округа с таким разным населением, как округ Лос-Анджелес, штат Калифорния, с населением 10 019 635 человек, и округ Ловинг, штат Техас, с населением 83 человека, инструмент генеративного искусственного интеллекта продемонстрировал способность выявлять проблемы экологической справедливости, специфичные для конкретного региона, в крупных и масштабных масштабах. -плотность заселения территорий. Однако этот инструмент был ограничен в своей способности выявлять и предоставлять контекстуальную информацию по местным вопросам экологической справедливости.

  • ChatGPT смог предоставить информацию по вопросам экологической справедливости с привязкой к конкретному местоположению только для 515 из 3018 округов, включенных в список, или 17 процентов.
  • В сельских штатах, таких как Айдахо и Нью-Гэмпшир, более 90 процентов населения проживало в округах, которые не могли получать информацию, специфичную для местного населения.
  • В штатах с большим городским населением, таких как Делавэр или Калифорния, менее 1 процента населения проживало в округах, которые не могут получить конкретную информацию.

Влияние на разработчиков и пользователей ИИ

Поскольку генеративный ИИ становится новым инструментом для получения информации, тестирование потенциальных ошибок в результатах моделирования становится важной частью улучшения таких программ, как ChatGPT.

«Хотя необходимы дополнительные исследования, наши результаты показывают, что в настоящее время в модели ChatGPT существуют географические предубеждения», — сказал Ким, преподаватель кафедры географии. «Это отправная точка для исследования того, как программисты и разработчики ИИ смогут предвидеть и смягчать несоответствие информации между большими и маленькими городами, между городской и сельской средой».

Ким ранее опубликовала статью о том, как ChatGPT понимает проблемы транспорта и их решения в США и Канаде. Его исследовательская группа «Умные города во благо» исследует использование методов и технологий науки о геопространственных данных для решения городских социальных и экологических проблем.

Расширение будущих возможностей инструментов

Доцент Исмини Лоренцу из Инженерного колледжа, соавтор статьи, назвал три области дальнейших исследований для моделей большого языка, таких как ChatGPT:

  • Уточнить локализованные и контекстуально обоснованные знания, чтобы уменьшить географические предвзятости.
  • Защитите модели на большом языке, такие как ChatGPT, от сложных сценариев, таких как двусмысленные инструкции пользователя или отзывы.
  • Повысить осведомленность пользователей и политику, чтобы люди были лучше информированы о сильных и слабых сторонах, особенно по деликатным темам.

«Существует множество проблем с надежностью и отказоустойчивостью моделей на большом языке», — сказал Лоренцу, который преподает на факультете компьютерных наук и является филиалом Центра искусственного интеллекта и анализа данных Сангани. «Я надеюсь, что наше исследование поможет дальнейшим исследованиям по расширению возможностей ChatGPT и других моделей».

Похожие истории

По мнению экспертов, генеративный искусственный интеллект может изменить наш образ жизни

Шепчущие чат-боты

Подкаст «Curious Conversations»: Исмини Лоренцу рассказывает о потенциале ИИ в качестве помощника