После победы Дональда Трампа на президентских выборах на этой неделе подход федерального правительства к регулированию искусственного интеллекта (ИИ) находится на решающем переломном этапе. Хотя во время предстоящей неудачной сессии Конгресса может возникнуть необходимость поспешно принять закон об искусственном интеллекте, такая поспешность может оказаться контрпродуктивной для лидерства США в развитии искусственного интеллекта. Напротив, этот переходный период дает возможность начать с чистого листа и вдумчиво обдумать, как правительство может установить соответствующие барьеры, одновременно содействуя инновациям и развитию.
Несмотря на растущее присутствие ИИ в различных отраслях — от здравоохранения и финансов до производства и транспорта — меры федерального регулирования на сегодняшний день относительно ограничены. Президент Джо Байден издал указ об ИИ, и различные агентства приняли комментарии в соответствии с этим указом, но Конгресс еще не принял ни одного важного закона, касающегося ИИ.
Тогдашний кандидат Трамп сказал толпа на одном из его митингов в прошлом году: «Когда меня переизберут, я отменю указ Байдена об искусственном интеллекте и запретю использование ИИ для цензуры речи американских граждан в первый же день». Этим летом его обещание вошло в платформу Национального комитета Республиканской партии, которая заявил :
Мы отменим опасный указ Джо Байдена, который препятствует инновациям в области искусственного интеллекта и навязывает радикальные левые идеи развитию этой технологии. Вместо этого республиканцы поддерживают развитие искусственного интеллекта, основанное на свободе слова и процветании человечества.
Но было бы глупо полагать, что Конгресс будет оставаться в стороне на неопределенный срок. Поскольку вполне вероятно, что федеральное правительство «что-то» предпримет для регулирования ИИ, крайне важно, чтобы любая новая нормативная база отдавала приоритет конкурентоспособности США в разработке ИИ, обеспечивая при этом соответствующие меры безопасности. Анализ ряда текущих законодательных предложений может помочь нам определить ключевые приоритеты и потенциальные компромиссы, предлагая понимание того, куда Конгресс может в конечном итоге направиться в сфере регулирования ИИ.
Статус-кво
Следует отметить, что некоторые из недавно предложенных подходов к регулированию ИИ отличаются резким отходом от того, как мы осуществляли предыдущие технологические преобразования. Спешка ввести превентивные правила и обширный надзор резко контрастирует с например как законодатели и регулирующие органы относились к зарождению электронной коммерции. Если бы мы потребовали предпродажного тестирования безопасности, обязательных требований прозрачности или обязательной сертификации перед разрешением онлайн-транзакций, мы, вероятно, задушили бы одну из самых преобразующих инноваций в современной торговле.
Вместо этого электронной коммерции было позволено развиваться органично, при этом правила реагировали на реальный ущерб, а не на спекулятивные риски. Это позволило быстро внедрять инновации, сохраняя при этом защиту потребителей с помощью существующих систем защиты от мошенничества и защиты потребителей. Исторический успех этого подхода поднимает серьезные вопросы о том, разумно или необходимо применять принцип предосторожности к развитию ИИ.
Хотя развитие ИИ в последние годы значительно ускорилось, оно было относительно ограниченным. Наиболее значимые федеральные меры на сегодняшний день были предприняты исполнительной властью, а именно исполнительным директором президента Байдена по вопросам искусственного интеллекта и различными инициативами на уровне ведомств, направленными на оценку рисков и возможностей, которые представляет искусственный интеллект.
Фактическая реакция федеральных регулирующих органов на ИИ на сегодняшний день состояла в основном из сбора информации, разработки добровольных руководств и получения отзывов от заинтересованных сторон (хотя исполнительный директор Байдена также сделал сомнительные заявления). претензии обширных исполнительных полномочий в соответствии с Законом об оборонном производстве).
Среди своих положений EO поручил Национальному институту стандартов и технологий (NIST) выпустить Стандарты и рекомендации по безопасности ИИ . Такие агентства, как Федеральная торговая комиссия (FTC), также сыграли свою роль, добиваясь комментарий о том, как существующие законы о защите потребителей могут применяться к ИИ, и предупреждая компании о рисках предвзятых или вводящих в заблуждение моделей ИИ. Вдобавок к этим усилиям федерального правительства, также наблюдается растущая разнородность законов штатов (см. здесь и здесь ), которые потенциально создают огромное бремя соблюдения требований, а взамен дают лишь спекулятивные выгоды.
Это создает проблему Сциллы и Харибды. С одной стороны, мы не хотим мешанины противоречивых федеральных и государственных правил и законов. А с другой стороны, мы не хотим единого, но недоделанного федерального «решения», которое принесет больше вреда, чем пользы. Тогда вопрос в том, что рассматривает Конгресс и что должен это делать?
Призрак будущего регулирования ИИ
ИИ остается зарождающейся отраслью, и многие из ее наиболее значительных последствий и потенциальных рисков все еще неизвестны. С учетом вышесказанного, возможно, было бы поучительно на основе текущего набора федеральных предложений составить дорожную карту того, как может выглядеть будущее регулирование ИИ.
Было внесено несколько законопроектов, каждый из которых отражает разные приоритеты и подходы к управлению ИИ. В этих законопроектах обрисованы некоторые ключевые темы и потенциальные компромиссы, которые законодатели могут решить по мере продвижения предложений по регулированию ИИ.
Безопасность и ответственность
Одной из наиболее заметных тем в предлагаемых законопроектах является акцент на безопасности и подотчетности ИИ. Счета типа S. 4769, Закон о проверке и оценке надежного ИИ (VET AI) и S. 3312, Закон об исследованиях, инновациях и подотчетности в области искусственного интеллекта. уделять первоочередное внимание необходимости строгого управления рисками и систем аудита, чтобы гарантировать, что системы ИИ не причинят вреда обществу и не нарушат права личности. Обе меры предполагают, что «высокоэффективные» системы искусственного интеллекта, особенно те, которые используются в таких чувствительных секторах, как здравоохранение и правоохранительная деятельность, проходят постоянное тестирование и сертификацию для выявления предвзятостей, недостатков безопасности и других потенциальных опасностей. Закон об искусственном интеллекте в ПОО фокусируется на создании так называемых процедур «красной команды», которые выявляют потенциальные уязвимости и недостатки, а также на других мерах по снижению рисков, требующих, чтобы системы искусственного интеллекта оценивались независимыми аудиторами перед развертыванием.
Хотя многие законопроекты предлагают обязательные рамки управления рисками и сертификации, S. 4178, Закон о будущем инноваций в области искусственного интеллекта представит теоретически более гибкий подход, который будет включать в себя кодификацию рекомендаций Института безопасности искусственного интеллекта NIST. Институту будет поручено разработать лучшие практики и технические стандарты для систем искусственного интеллекта, предлагая якобы добровольный путь соблюдения требований.
Но повышение законопроекта об Институте безопасности искусственного интеллекта, который был создан исполнительным директором Байдена, подчеркивает то, что может вызывать обеспокоенность поползновением институциональной миссии. Первоначально созданный как орган, устанавливающий стандарты в рамках NIST (агентства, традиционно занимающегося технической координацией и взаимодействием с заинтересованными сторонами), институт мог бы стать де-факто регулирующий орган. Это может дать паникёрам безопасности в области ИИ возможность формировать ограничительную политику посредством «добровольных» стандартов и руководящих принципов, которые фактически становятся обязательными под давлением рынка, государственных контрактов и судебной почтительности. Это закулисное регулирование посредством технических стандартов грозит обойти надлежащий законодательный надзор, одновременно концентрируя власть в неподотчетном техническом органе.
Прозрачность и данные
Прозрачность — еще один важный приоритет, общий для законодательства в области ИИ. Например, S. 2714, Закон о создании искусственного интеллекта предлагает создать Национальный ресурс исследований искусственного интеллекта (NAIRR), централизованную платформу, где исследователи и разработчики могли бы получить доступ к наборам данных и системам искусственного интеллекта для тестирования и разработки. Устанавливая общие стандарты прозрачности данных и документации систем ИИ, эта мера направлена на то, чтобы сделать разработку ИИ более открытой и подотчетной.
S. 3312, Закон об исследованиях, инновациях и подотчетности в области искусственного интеллекта. также подчеркивает прозрачность, требуя от систем ИИ раскрывать ключевую информацию о своих наборах данных, архитектуре моделей и показателях производительности. Этот акцент на прозрачности призван укрепить общественное доверие к ИИ, упрощая понимание того, как эти системы принимают решения, особенно в средах с высоким уровнем риска, таких как финансы или здравоохранение.
Определение «высокого воздействия»
Согласно определению Закона об искусственном интеллекте ПОО, «высокоэффективная» система искусственного интеллекта — это любая технология искусственного интеллекта, которая потенциально может существенно повлиять на права человека, общественную безопасность или критически важную инфраструктуру. Такие системы обычно используются в чувствительных секторах, таких как здравоохранение, финансы, правоохранительная деятельность и национальная безопасность, где последствия неисправности, предвзятости или неправильного использования могут нанести существенный вред. Согласно условиям законопроекта, высокоэффективные системы будут подлежать строгий нормативный надзор включая обязательные оценки рисков, постоянный аудит, независимые оценки и требования к сертификации для обеспечения их безопасной и прозрачной работы.
Во многом определение законопроекта совпадает с подход ЕС в своем Законе об искусственном интеллекте использовал системы «высокого риска» и «системного риска». Неудивительно, что ИИ ПОО страдает аналогичными недостатками. Определение является емким и, вероятно, распространяется на любой контекст, в котором инструмент искусственного интеллекта общего назначения, включая большие языковые модели (LLM), такие как ChatGPT или Claude, используется людьми, обладающими властью или влиянием.
Хотя эти инструменты по своей сути не могут быть «высокоэффективными», вероятность неправильного использования в процессах принятия решений (особенно в таких чувствительных областях, как здравоохранение или правоохранительная деятельность) означает, что их легко можно отнести к категории «высокоэффективных». Широкий характер этой законодательной формулировки предполагает, что даже системы искусственного интеллекта общего назначения могут подвергаться строгому надзору из-за того, как они используются, а не только из-за их основных функций.
Закон о балансе: инновации против регулирования
Глядя на сеть обязательств, которые основные части предлагаемого законодательства наложат на разработчиков ИИ, потенциал чрезмерного регулирования остается серьезной проблемой. Если законодатели не смогут должным образом оценить связанные с этим компромиссы, они рискуют создать нормативную среду, которая душит те самые инновации, которые они стремятся поддержать, особенно для мелких разработчиков.
В частности, в этих рамках разработка искусственного интеллекта с открытым исходным кодом столкнется с серьезными проблемами. Многие разработчики ПО с открытым исходным кодом работают с минимальным финансированием, полагаясь на сотрудничество и общие ресурсы для инноваций. Обременительные требования к сертификации или необходимость дорогостоящих независимых аудитов могут сдерживать вклад открытого исходного кода, что в конечном итоге ограничивает разнообразие и динамизм экосистемы ИИ.
Введение добровольных стандартов, подобных тем, которые предложены в Законе о будущем инноваций в области искусственного интеллекта, также может создать приманку для особых интересов. Крупные фирмы с политическими связями могут влиять на процесс установления стандартов таким образом, чтобы это отвечало их собственным интересам, тем самым превращая добровольные руководящие принципы в де-факто требования, которые душат конкуренцию. Такой де-факто Правила – особенно если они исходят от якобы «экспертного» независимого органа, такого как NIST, – также могут оказаться очень влиятельными в судах во время судебных разбирательств. Проекты с открытым исходным кодом, часто действующие за пределами этих корпоративных интересов, скорее всего, будут исключены из процесса или перегружены ожиданиями соответствия.
Хотя закон CREATE AI Act имеет похвальную заявленную цель — помочь мелким разработчикам путем предоставления доступа к централизованным наборам данных через недавно созданный NAIRR, непредвиденные последствия могут аналогичным образом скрываться в деталях. На первый взгляд это может показаться спасательным кругом для небольших компаний, особенно для тех, которым в противном случае было бы сложно собрать необходимые данные для обучения конкурентоспособных моделей ИИ. Однако централизация таких важнейших ресурсов может создать ряд непредвиденных проблем.
Во-первых, если доступ к NAIRR будет ограничен или будет определяться особыми интересами, более мелкие разработчики и проекты с открытым исходным кодом могут оказаться в невыгодном положении…