Newswise — Исследователи Технологического института штата Вирджиния обнаружили ограничения в способности ChatGPT предоставлять информацию о конкретном регионе по вопросам экологической справедливости. Их результаты, опубликованные в журнале «Телематика и информатика», предполагают возможность географических предубеждений, существующих в современных моделях генеративного искусственного интеллекта (ИИ).
ChatGPT — это модель большого языка, разработанная OpenAI Inc., исследовательской организацией в области искусственного интеллекта. ChatGPT предназначен для понимания вопросов и генерации текстовых ответов на основе запросов пользователей. Эта технология имеет широкий спектр применений: от создания контента и сбора информации до анализа данных и языкового перевода.
Обзор по округам
«Для географа и специалиста по геопространственным данным генеративный искусственный интеллект — это инструмент с мощным потенциалом», — сказал доцент Юнхван Ким из Колледжа природных ресурсов и окружающей среды. «В то же время нам необходимо изучить ограничения технологии, чтобы будущие разработчики осознавали возможность предвзятости. Это было движущей мотивацией данного исследования».
Используя список 3108 округов в сопредельных Соединенных Штатах, исследовательская группа попросила интерфейс ChatGPT ответить на подсказку о проблемах экологической справедливости в каждом округе. Исследователи выбрали экологическую справедливость в качестве темы, чтобы расширить круг вопросов, обычно используемых для проверки эффективности инструментов генеративного искусственного интеллекта. Задание вопросов по округам позволило исследователям сопоставить ответы ChatGPT с социально-демографическими факторами, такими как плотность населения и средний доход домохозяйства.
Ключевые результаты указывают на ограничения
Обследуя округа с таким разным населением, как округ Лос-Анджелес, штат Калифорния, с населением 10 019 635 человек, и округ Ловинг, штат Техас, с населением 83 человека, инструмент генеративного искусственного интеллекта продемонстрировал способность выявлять проблемы экологической справедливости, специфичные для конкретного региона, в крупных и масштабных масштабах. -плотность заселения территорий. Однако этот инструмент был ограничен в своей способности выявлять и предоставлять контекстуальную информацию по местным вопросам экологической справедливости.
- ChatGPT смог предоставить информацию по вопросам экологической справедливости с привязкой к конкретному местоположению только для 515 из 3018 округов, включенных в список, или 17 процентов.
- В сельских штатах, таких как Айдахо и Нью-Гэмпшир, более 90 процентов населения проживало в округах, которые не могли получать информацию, специфичную для местного населения.
- В штатах с большим городским населением, таких как Делавэр или Калифорния, менее 1 процента населения проживало в округах, которые не могут получить конкретную информацию.
Влияние на разработчиков и пользователей ИИ
Поскольку генеративный ИИ становится новым инструментом для получения информации, тестирование потенциальных ошибок в результатах моделирования становится важной частью улучшения таких программ, как ChatGPT.
«Хотя необходимы дополнительные исследования, наши результаты показывают, что в настоящее время в модели ChatGPT существуют географические предубеждения», — сказал Ким, преподаватель кафедры географии. «Это отправная точка для исследования того, как программисты и разработчики ИИ смогут предвидеть и смягчать несоответствие информации между большими и маленькими городами, между городской и сельской средой».
Ким ранее опубликовала статью о том, как ChatGPT понимает проблемы транспорта и их решения в США и Канаде. Его исследовательская группа «Умные города во благо» исследует использование методов и технологий науки о геопространственных данных для решения городских социальных и экологических проблем.
Расширение будущих возможностей инструментов
Доцент Исмини Лоренцу из Инженерного колледжа, соавтор статьи, назвал три области дальнейших исследований для моделей большого языка, таких как ChatGPT:
- Уточнить локализованные и контекстуально обоснованные знания, чтобы уменьшить географические предвзятости.
- Защитите модели на большом языке, такие как ChatGPT, от сложных сценариев, таких как двусмысленные инструкции пользователя или отзывы.
- Повысить осведомленность пользователей и политику, чтобы люди были лучше информированы о сильных и слабых сторонах, особенно по деликатным темам.
«Существует множество проблем с надежностью и отказоустойчивостью моделей на большом языке», — сказал Лоренцу, который преподает на факультете компьютерных наук и является филиалом Центра искусственного интеллекта и анализа данных Сангани. «Я надеюсь, что наше исследование поможет дальнейшим исследованиям по расширению возможностей ChatGPT и других моделей».
Похожие истории
По мнению экспертов, генеративный искусственный интеллект может изменить наш образ жизни
Шепчущие чат-боты
Подкаст «Curious Conversations»: Исмини Лоренцу рассказывает о потенциале ИИ в качестве помощника