Похоже, что большие языковые модели (LLM) сейчас в моде: от объявления Bing о том, что он планирует интегрировать технологию ChatGPT в свою поисковую систему, до объявления Google о своем собственном LLM под названием «Bard» до недавнего представления Meta на Big Language. Модель мета-ИИ, или «LLaMA». Каждый из этих LLM использует искусственный интеллект (ИИ) для создания текстовых ответов на вопросы.

Но, конечно же, не потребовалось много времени после того, как были введены эти инновационные новые приложения, чтобы появились отчеты о моделях LLM, просто ошибочно искажающих факты. Учитывая это, стоит задаться вопросом: как закон будет бороться с дезинформацией, созданной ИИ?

Один из первых вопросов, с которым судам придется столкнуться, заключается в том, распространяется ли иммунитет по статье 230 на контент, созданный ИИ. Конечно, у Верховного суда США уже есть крупное дело по статье 230. Гонсалес В. Google . Действительно, во время устных прений по этому делу судья Нил Горсач, по-видимому, предположил, что контент, созданный ИИ, не получит иммунитета по статье 230. И существующее прецедентное право, по-видимому, поддерживает этот вывод, поскольку контент LLM разрабатывается самой интерактивной компьютерной службой, а не ее пользователями.

Еще один вопрос, поднятый этой технологией, заключается в том, какие юридические возможности будут доступны тем, кто пытается оспорить дезинформацию. Согласно Первой поправке, правительство может регулировать ложные высказывания только в очень ограниченном числе случаев. Одним из них является клевета, которая кажется наиболее логичным основанием для подачи иска. Но в соответствии с законом о диффамации истцам — особенно общественным деятелям, которые являются наиболее вероятными участниками процесса и должны доказать «злонамеренность», — может быть трудно доказать, что ИИ действовал с необходимым настроением для обоснования иска.

Раздел 230, скорее всего, не применяется к информации, разработанной LLM

Раздел 230(c)(1) гласит:

Ни один поставщик или пользователь интерактивных компьютерных услуг не может рассматриваться как издатель или распространитель любой информации, предоставленной другим поставщиком информационного контента.

Закон определяет интерактивный компьютерный сервис как «любая информационная служба, система или поставщик программного обеспечения для доступа, который обеспечивает или позволяет компьютерный доступ нескольких пользователей к компьютерному серверу, включая, в частности, службу или систему, которая обеспечивает доступ к Интернету, и такие системы, управляемые или услуги, предлагаемые библиотеками или образовательными учреждениями. ».

поставщик программного обеспечения для доступа часть этого определения включает любой инструмент, который может «фильтровать, экранировать, разрешать или запрещать контент; выбирать, выбирать, анализировать или переваривать контент; или передавать, получать, отображать, пересылать, кэшировать, искать, подмножествовать, организовывать, реорганизовывать или переводить контент».

И, наконец, поставщик информационного контента это «любое физическое или юридическое лицо, которое несет полную или частичную ответственность за создание или разработку информации, предоставляемой через Интернет или любой другой интерактивный компьютерный сервис».

В совокупности раздел 230(c)(1) предоставляет онлайн-платформам («интерактивные компьютерные услуги») широкий иммунитет в отношении пользовательского контента («информация, предоставленная другим поставщиком информационного контента»). Это касается даже тех случаев, когда онлайн-платформа (действующая как «поставщик программного обеспечения доступа») в значительной степени занимается курированием пользовательского контента.

Однако раздел 230(c)(1) не защищает информацию, созданную самой интерактивной компьютерной службой.

Существует прецедентное право, помогающее определить, создается ли контент или разрабатывается интерактивной компьютерной службой. Онлайн-платформы, использующие «нейтральные инструменты» для организации информации, не утратили иммунитета. Как заявил 9-й Окружной апелляционный суд США Совет по справедливому жилищному строительству против Roommates.com :

Предоставление нейтральных инструментов для навигации по веб-сайтам полностью защищено иммунитетом CDA при отсутствии существенного позитивного поведения со стороны создателя веб-сайта, продвигающего использование таких инструментов в незаконных целях.

С другой стороны, онлайн-платформы несут ответственность за контент, который они создают или разрабатывают, что не включает «дополнение контента в целом», но включает «существенное содействие его предполагаемой незаконности».

Вопрос здесь в том, содержат ли текстовые ответы, предоставляемые приложениями LLM, такими как Bing’s Sydney или Google’s Bard, контент, созданный или разработанный этими онлайн-платформами. Можно утверждать, что LLM — это нейтральные инструменты, просто преобразующие информацию из других источников для отображения. Однако кажется очевидным, что LLM синтезирует информацию для создания нового контента. Использование ИИ для ответа на вопрос, а не человека-агента Google или Microsoft, похоже, не имеет отношения к тому, был ли он создан или разработан этими компаниями. (Хотя, как отмечает Мэтт Перо, то, как LLM интегрированы в продукт, имеет значение. Если LLM просто помогает «определить, каким результатам поиска отдать приоритет или какой текст выделить из базовых результатов поиска», то он может получить защиту Раздела 230.)

Сама технология дает текстовые ответы на основе входных данных от спрашивающего. LLM использует механизмы, обученные искусственному интеллекту, чтобы угадывать следующее слово на основе данных из Интернета. Хотя информация может поступать от третьих лиц, создание самого контента связано с LLM. Как ChatGPT ответил на мой запрос здесь:

Доказательство клеветы с помощью ИИ

В отсутствие иммунитета по статье 230 все еще остается вопрос о том, как можно привлечь к ответственности Барда из Google или Сиднея из Microsoft за распространение дезинформации. Законов против ложной речи вообще нет и быть не может, поскольку Верховный суд объявил такую ​​речь охраняемой в Соединенные Штаты против Альвареса . Однако существуют категории ложных высказываний, такие как диффамация и мошенничество, которые, как было установлено, не подпадают под защиту Первой поправки.

Клевета является наиболее логичным поводом для иска, который может быть подан за ложную информацию, предоставленную приложением LLM. Но примечательно, что маловероятно, что люди, не получившие значительного общественного признания, будут известны по этим приложениям LLM (поверьте мне, я пытался заставить ChatGPT рассказать мне что-нибудь о себе — увы, я недостаточно известен) . Вдобавок ко всему, те, кто, скорее всего, понесет значительный ущерб от того, что их репутация пострадала от лжи, распространяемой в Интернете, — это те, кто находится в центре внимания общественности. Это означает, что в целях иска о диффамации чаще всего предъявляют иски общественные деятели.

Например, если ChatGPT ответит на вопрос, является ли Джонни Депп избиением жены, сказав, что это так, вопреки выводам одного суда (но согласуясь с другим), Депп может подать в суд на создателей сервиса за клевету. Он должен будет доказать, что ложное заявление было обнародовано третьей стороне, в результате чего ему был причинен ущерб. Ради аргумента предположим, что он может делать и то, и другое. Дело до сих пор не доказано, потому что как общественному деятелю ему также придется доказывать «настоящий злой умысел».

Под Нью-Йорк Таймс против Салливана и его потомков, публичное лицо должно доказать, что ответчик действовал с «настоящим злым умыслом» при обнародовании ложных сведений об истце. Фактический злой умысел определяется как «знание того, что [the statement] было ложным или с безрассудным пренебрежением к тому, было ли оно ложным или нет».

Возникает вопрос, можно ли отнести злой умысел к LLM. Кажется маловероятным, чтобы можно было сказать, что создатели ИИ обучили его таким образом, что они «знали», что полученные ответы будут ложными. Но может быть более интересным вопрос, дает ли LLM ответы с «безрассудным игнорированием» их истинности или ложности. Можно утверждать, что эти ранние версии технологии именно таковы, но лежащий в их основе ИИ, вероятно, со временем улучшится благодаря обратной связи. Лучшее время для подачи иска истцом может быть сейчас, когда LLM все еще находятся в зачаточном состоянии и чаще дают ложные ответы.

Вполне возможно, что при наличии достаточного контекста в запросе приложения с поддержкой LLM смогут распознавать частные лица и ошибаться. Например, когда я попросил ChatGPT дать биографию себя, я не получил никаких результатов:

Когда я добавил свое рабочее место, я делал получить биографию, но никакой соответствующей информации не было обо мне. Вместо этого речь шла о моем боссе Джеффри Манне, президенте Международного центра права и экономики:

Хотя ничто из этой биографии не является правдой, это не вредит моей репутации и не приводит к убыткам. Но по крайней мере теоретически возможно, что LLM может сделать клеветническое заявление против частного лица. В таком случае на истца будет возлагаться меньшее бремя доказывания, а именно небрежность, то есть , что ответчик опубликовал ложное заявление о факте, которое разумный человек знал бы как ложное. С этим бременем было бы намного легче справиться, если бы ИИ не был достаточно обучен перед тем, как выпустить его на всеобщее обозрение.

Заключение

Хотя маловероятно, что такой сервис, как ChapGPT, получит иммунитет согласно Разделу 230, также маловероятно, что истец сможет подать против него иск о диффамации за ложные заявления. Наиболее вероятный тип истца (общественные деятели) столкнулся бы с трудностями при доказательстве необходимого элемента «фактического злого умысла». Наилучшие шансы для возбуждения судебного процесса могут быть против ранних версий этой службы, развернутых быстро и с большой помпой, но все еще находящихся на стадии бета-тестирования с точки зрения точности, поскольку можно привести красочный аргумент, что они дают ложные сведения. ответы в «безрассудном пренебрежении» их правдивостью.