Пока законодательные собрания штатов по всей стране готовятся к собранию в начале 2026 года, среди архитекторов революции искусственного интеллекта (ИИ) начинается предсказуемая паника.
От Сакраменто до Хартфорда, похоже, будет распространяться законодательство, стремящееся регулировать всё — от алгоритмической дискриминации до фундаментальных вычислительных мощностей, используемых для обучения больших языковых моделей (LLM). Реакция отрасли была столь же предсказуемой: отчаянная просьба о федеральном превентивном режиме, мораторий на действия штатов или амбициозная опора на Клаузулу о спящей торговле для отмены раздробленных режимов соблюдения.
Хотя это юридически правдоподобно, за последнюю неделю мы увидели, что такая лоббистская стратегия является полон политических рисков для долгосрочной жизнеспособности управления ИИ.
Действительно, лоскутное одеяло из 50 противоречивых режимов ИИ стало бы экономическим кошмаром, который может подавить инновации США. И столь же верно, что согласно юриспруденции положения о спящей торговле, штаты не могут чрезмерно обременять межштатную торговлю или регулировать поведение, происходящее полностью за их пределами. Но ждать, пока Конгресс примет масштабный закон о превентивном порядке, или надеяться, что суды быстро признают законы штатов недействительными — это риск с графиком, который быстрые инновации в области ИИ и гонка за превосходством международных конкурентов не могут позволить.
Дебаты застряли в бинарной ловушке: полный федеральный контроль против хаотичных экспериментов с штатами. На фоне этих выборов нам стоит серьёзно отнестись к идее, что всё ещё продолжающаяся революция ИИ (которая, на самом деле, включает невероятно широкий спектр инструментов и технологий) требует тонких и разнообразных подходов для решения как своих обещаний, так и рисков.
Нам действительно нужна новая концептуальная основа — основанная не только на конституционном праве, но и на практической реальности регуляторной компетентности. Путь вперёд — не спрашивать, являются ли штаты мочь регулировать ИИ, но строго определять, что такое государства компетентный Регулировать.
Такой подход требует возвращения к принципу субсидиарности — идее, что управление должно происходить на уровне, наиболее способном эффективно решать конкретную проблему. В контексте ИИ это заставляет нас задать сложный вопрос: какой вред государства действительно способны предотвратить, и какими регуляторными инструментами они располагают, чтобы неизбежно не повлиять на суверенитет соседей?
Подумайте о природе технологии. Разработка фундаментальных моделей — масштабного, вычислительного обучения таких систем, как GPT-4 или Claude — по своей сути является национальным, если не глобальным, предприятием. Физическая инфраструктура, потоки данных и капитальные вложения игнорируют границы штатов. Когда штат пытается регулировать тренировка из этих моделей (как видно в недавних амбициозных предложениях) они утверждают регуляторную компетентность, которой у них просто нет.
Законодательный орган штата неизбежно не обладает техническими возможностями для эффективного аудита веса нейронной сети. Более того, любая попытка навязать стандарты безопасности на образцовую подготовку в одном штате неизбежно определяет технологическую архитектуру всей страны. Это классический «эффект Калифорнии», когда политические предпочтения одной юрисдикции превращаются в де-факто национальный мандат, обходящий демократические предпочтения граждан Техаса или Огайо.
Именно здесь аргумент о Спящей торговле наиболее сильен, но также и наиболее политически хрупким. Говорить законодателю штата, что он не может защитить своих избирателей от «рисков ИИ» из-за абстрактной конституционной доктрины, читается как уклонение. Лучший аргумент — и лучшая политика — направить государственную энергию туда, где на самом деле лежит их компетентность: в конкретную приложение ИИ-модальностей в их конкретных юрисдикциях.
Например, штаты обладают исключительной компетентностью в регулировании того, как их государственные органы используют ИИ. Они могут и должны устанавливать правила, как местные полицейские управления используют распознавание лиц или как государственные льготные агентства используют автоматизированные системы принятия решений для определения права на Medicaid. Это местные контексты, в которых участвуют местные субъекты, и возмещение (административные слушания, деликтная ответственность) полностью входит в пределы традиционных полномочий полиции штата.
Кроме того, государства имеют важную роль в регулировании Выходы ИИ, где они пересекаются с действующими законами штатов и причиняют доказуемый вред. Если система ИИ используется для принятия решений о найме в Нью-Йорке, она должна соответствовать требованиямЗаконы штата Нью-Йорк о дискриминации при трудоустройстве. Если чат-бот даёт медицинские рекомендации во Флориде, это касается системы лицензирования медицинских услуг во Флориде. В таких случаях государство не регулирует архитектуру ИИ — область, где у них нет компетенций, — а скорее, поведение О Deployer — области, где у них столетний опыт. Предыдущие эпизоды в области технологической политики показывают, как это работает.
Решение 9-го окружного апелляционного суда США по делу Совет по справедливому жилищному строительству против Roommates.com предлагает полезную структурную аналогию. В этом деле спрашивалось, запрещает ли раздел 230 Закона о порядочности коммуникаций на применение законов о справедливом жилье в отношении онлайн-сервиса по подбору сожителей. Хотя решение в конечном итоге опиралось на установленные законом ограничения раздела 230 — в частности, на то, что платформа существенно способствовала незаконному поступку — результат является показательным. Он показывает, что федеральное законодательство, регулирующее различные аспекты онлайн-инфраструктуры, не защищает автоматически поведение в нижней части от соблюдения гражданских прав штатов.
Тем Соседи дело не касалось федерализма само по себе , но он отражает схожую логику субсидиарности: федеральное правило может задавать фоновую архитектуру онлайн-системы, в то время как штаты сохраняют полномочия контролировать дискриминационные результаты в своих традиционных сферах. Такое разделение труда — полезная ментальная модель для размышлений об управлении ИИ.
Различие между фундаментальным развитием ИИ и поведением систем ИИ имеет решающее значение. Когда штаты сосредотачиваются на поведение и Результаты Внутри своих границ они обеспечивают здоровую лабораторию демократии. К лучшему или худшему, один штат может предпочесть режим строгой ответственности для аварий с участием автоматизированных транспортных средств; Кто-то предпочёл бы стандарт халатности для стимулирования внедрения автоматизированных автомобилей. Эти различия отражают локальные толерантности к риску и предпочтения. Они не ломают интернет и не заставляют разработчиков в Сиэтле перекодировать свою модель под регулятора в Таллахасси.
Но когда штаты пытаются регулировать проектировать и развитие самой технологии — требующей предварительной оценки воздействия для универсальных моделей или обязательных технических особенностей водяных знаков — они выходят за пределы своей компетенции. Они переходят от управления местным поведением к управлению межштатным рынком вычислений.
Путь отрасли вперёд не должен быть категорическим «нет» какой-либо государственной роли, а тонким «Здесь, а не там». Мы должны признать, что штаты обязаны контролировать конкретный вред, наносящий их границы. Эти вреды могут быть связаны с предвзятостью в жилищной сфере, конфиденциальностью в общественных местах, предотвращением мошенничества и других деликтов, а также с осуществлением государственного правосудия. Взамен мы должны настаивать на том, чтобы архитектура технологии — «код» самого ИИ — оставалась под юрисдикцией федерального контроля — или, что ещё лучше, конкурентных рыночных стандартов.
Наши нормативные предпочтения относительно того, как любой отдельный штат решит использовать свои полицейские полномочия, неизбежно расходятся. Тем не менее, крайне важно сохранять пространство для государств для осуществления традиционных полномочий там, где они наиболее эффективны. Цель новой федеральной системы для ИИ должна заключаться не в том, чтобы вытеснить государственное управление, а в обеспечении создания систем ИИ в нормативной среде, откалиброванной с учётом их межштатного и международного характера. Такое разделение обязанностей защищает инновации на архитектурном уровне, одновременно уважая давнюю роль штатов в борьбе с бетонным вредом, возникающим на их границах.
Переосмысливая дебаты о субсидиарности и компетентности, мы выходим за рамки тупика преемпции. Мы признаём, что у штатов есть роль, но ограничиваем её до уровня эффективности и легитимности. Это предотвратит балканизацию цифровой экономики, одновременно уважая федералистский импульс держать управление близко к народу.
Это сложнее аргумента, чем простой лозунг об инновациях, но именно он, вероятно, выдержит политические реалии следующего десятилетия.
ЛУЧШИЙ