Здесь, в Нью-Джерси, где я живу, день перед Хэллоуином обычно отмечается как «Ночь шалостей» — вечер подросткового веселья и легкого вандализма, который обычно включает в себя швыряние большого количества яиц и туалетной бумаги.
Поэтому, возможно, вполне уместно, что президент Джо Байден выбрал 30 октября для подписания радикального соглашения. указ (ЭО), которое само по себе может причинить немало вреда. И, как и подобает сезону Хэллоуина, предлагая этот широкий режим надзора, администрация, похоже, явно напугана развитием искусственного интеллекта (ИИ).
Приказ, конечно же, воплощает возникающее и в настоящее время широко распространенное среди политиков мнение о том, что им следует «что-то сделать» с ИИ; Управление заходит так далеко, что заявляет, что администрация чувствует себя «обязанной» действовать в отношении ИИ. Он в основном предписывает различным агентствам определять, как им следует участвовать в регулировании ИИ, но некоторые положения идут дальше этого. В частности, директивы, устанавливающие новые требования к отчетности, хотя и якобы направленные на достижение разумной цели прозрачности, в конечном итоге могут принести больше вреда, чем пользы.
Емкие определения, которые могут поглотить весь мир программного обеспечения
Одна из ключевых директив EO потребует от компаний, которые разрабатывают так называемые модели ИИ «двойного назначения», отчитываться перед правительством о усилиях по обеспечению весов — ключевых параметров, которые формируют результаты, — которые используются в моделях. Директива будет применяться к «базовым» моделям — то есть к большим нейронным сетям глубокого обучения, обученным на массивных наборах данных для формирования «базовой» модели для более конкретных приложений — которыми можно манипулировать способами, создающими значительные угрозы безопасности («двойная модель»). » использование в вопросе). В указе такие модели будут помечены как «двойного использования», даже если разработчики или поставщики попытаются установить технические ограничения для смягчения потенциально небезопасного использования.
Среди очевидных рисков, которые приказ рассматривает как потенциальную угрозу безопасности, — модели, которые могут помочь в разработке химического, биологического или ядерного оружия. Но он также включает более широкую формулировку относительно того, что представляет собой всеобъемлющую угрозу, а именно, что модели могут считаться двойного назначения в той степени, в которой они «[permit] уклонение от человеческого контроля или надзора посредством обмана или запутывания».
Сосредоточив внимание на изменяемых системах, которые потенциально могут облегчить причинение вреда, определение приказа создает широкую сеть, которая может охватить многие модели ИИ общего назначения. Более того, классифицируя системы, которые могут обходить человеческое суждение, как системы двойного назначения, указ фактически представляет весь ИИ как потенциально опасный.
В этом отношении, учитывая емкое определение «искусственного интеллекта» в приказе («машинная система, которая может для заданного набора определенных человеком целей делать прогнозы, рекомендации или решения, влияющие на реальную или виртуальную среду»), это возможно, что многие программные системы, которые мы вообще не воспринимаем как «ИИ», будут классифицированы как модели «двойного назначения».
Ограничение открытых исследований имеет непредвиденные последствия
Одним из основных последствий требований приказа к отчетности для систем двойного назначения является то, что он может непреднамеренно ограничить разработку с открытым исходным кодом. Компании, экспериментирующие с технологиями искусственного интеллекта (в том числе многие из тех, кто, возможно, не считает, что их работа квалифицируется как двойное назначение), скорее всего, воздержатся от публичного обсуждения своей работы, пока она не перейдет на стадию разработки. Учитывая затраты на соблюдение требований к отчетности, у компаний, не имеющих достаточно жизнеспособного потока доходов для поддержки как развития, так и соблюдения законодательства, будет стимул избегать регулирующего надзора на ранних стадиях, тем самым ограничивая потенциальную открытость.
Трудно представить, как проекты с полностью открытым исходным кодом смогут выжить в такой среде. Библиотеки кода искусственного интеллекта с открытым исходным кодом, такие как Тензорфлоу и PyTorch внедряйте невероятные инновации, позволяя любому разработчику создавать новые приложения на основе самых современных моделей. Зачем начинающему парадигматическому разработчику программного обеспечения, работающему в чьем-то гараже, всерьез заниматься разработкой с открытым исходным кодом, если подобные компоненты включены в сферу действия EO?
Излишняя защита доступа к весам, используемым в моделях, не говоря уже о полном отказе от разработки с открытым исходным кодом, может помешать независимым исследователям добиться прогресса в продвижении современного уровня развития ИИ.
Например, методы искусственного интеллекта обладают невероятным потенциалом для развития в различных научных областях ( например ., Изображения МРТ и глубокое обучение для диагностики опухолей головного мозга; машинное обучение для продвижения вперед материаловедение ). Для этого исследования необходима не строгая секретность, а открытость, позволяющая большему количеству умов использовать достижения ИИ.
Риски рассмотрения ИИ как вопроса национальной безопасности
Хотя в указе не уточняется, как будут контролироваться нарушения требований к отчетности, учитывая, что он претендует на полномочия в соответствии с полномочиями, предоставленными Законом об оборонном производстве (DPA) и Законом о международных чрезвычайных экономических полномочиях (IEEPA), любые штрафы за несоблюдение также будут должны вытекать из этих основополагающих законов.
DPA, который уполномочивает президента требовать от промышленности расставлять приоритеты и выполнять определенные производственные заказы во время чрезвычайных ситуаций в стране, предусматривает штрафы в размере до 10 000 долларов и тюремное заключение на срок до года за отказ от таких заказов. IEEPA, который позволяет президенту вводить экспортный контроль, санкции и проверку транзакций в целях регулирования международной торговли во время чрезвычайных ситуаций в стране, разрешает налагать гражданские штрафы на сумму до 365 579 долларов США или уголовные штрафы на сумму до 1 миллиона долларов США (вместе с тюремным заключением на срок до 20 лет). для нарушителей.
Но фактическое соблюдение этой политики, которая заставляет Соединенные Штаты чрезмерно защищать лидерство в области ИИ, может легко иметь неприятные последствия. Прорывы, как правило, ускоряются благодаря глобальной командной работе. По самой своей природе научная работа часто предполагает сотрудничество исследователей со всего мира. Поместив разработку искусственного интеллекта под эгиду аппарата национальной безопасности США, EO рискует ограничить международное сотрудничество и изолировать американских ученых от ценных перспектив и партнерства.
Так же, как ремни безопасности снижение затрат при несчастных случаях но непреднамеренное увеличение безрассудного вождения, обязательное изучение весов моделей, хотя и направлено на повышение ответственности, может непреднамеренно ограничить поток инновационных идей, которые необходимы для того, чтобы Соединенные Штаты оставались мировым лидером в разработке ИИ.
Достижение правильного баланса
ИИ несет в себе огромный потенциал для улучшения нашей жизни, а также риски, требующие тщательного контроля. Таким образом, правила, порожденные страхом, угрожают сорвать полезные инновации. Политики должны найти правильный баланс между гарантиями и прогрессом.
К сожалению, ЭО, по сути, повторит критический эпизод в истории шифрование но на этот раз предлагая ошибочный путь, которого мы едва избежали в первый раз.
Благодаря шифрованию – несмотря на признание потенциальных недостатков – политики проявили оптимизм, который позволил процветать таким прорывам, как персональные компьютеры и Интернет. Администрация Байдена, напротив, фокусируется преимущественно на гипотетических рисках, а не на огромных потенциальных преимуществах ИИ. И он делает это с помощью упреждающего подхода, который плохо подходит для технологии, которая все еще находится в зачаточном состоянии.
Обязательное изучение исследований может гарантировать, что открытия не будут использованы не по назначению. Но обременительные ограничения, препятствующие открытости, могут принести больше вреда, чем пользы. Умеренная прозрачность, сбалансированная либеральным обменом информацией, ускорит открытия на благо общества.
Сторонники развития искусственного интеллекта и ответственного управления хотят одного и того же: улучшения условий жизни людей. Но мы расходимся во мнениях о том, как туда добраться. Для продвижения вперед необходимы доказательства, а не паникерство, чтобы правила, призванные защищать, не имели непредвиденных последствий, препятствующих тому самому прогрессу, который мы стремимся ответственно способствовать.