Искусственный интеллект (ИИ) занял центральное место в современной глобальной технологической конкуренции, особенно после того, как коммерческий запуск OpenAI ChatGPT год назад . Теперь гонка за технологическое лидерство среди компаний и стран распространилась на сферу регулирования и установления правил, при этом национальные лидеры и политики заявляют, что они не хочу повторять те же ошибки опоздания с регулированием Интернета и социальных сетей.

За последние несколько недель мы стали свидетелями важных заявлений из Соединенных Штатов в виде президентского указа об искусственном интеллекте; рамочная программа Китая по управлению искусственным интеллектом, разработанная по результатам саммита, посвящённого десятой годовщине инициативы «Один пояс, один путь»; и Саммит по безопасности искусственного интеллекта, проходящий в Великобритании. Скользкая задача регулирования ИИ, особенно в глобальном масштабе, набирает обороты, хотя во многих отношениях страны по-прежнему придерживаются очень разных взглядов и целей по вопросам регулирования и развития ИИ.

Похоже, что формируется новая основа дипломатии ИИ.

Исполнительный указ США по искусственному интеллекту

Для начала давайте посмотрим на президента США Джо Байдена. указ об искусственном интеллекте, объявленном 30 октября. Вашингтон уже давно критикуют за отсутствие комплексного законодательства, регулирующего деятельность «крупных технологических» компаний по самым разным вопросам — от защиты данных и конфиденциальности до ответственности платформ социальных сетей. Учитывая политический тупик на Капитолийском холме и за его пределами, эта ситуация вряд ли изменится в ближайшее время. Однако, по иронии судьбы, этот модус-аппарат, «под руководством исполнительной власти», может позволить Соединенным Штатам взять на себя в некоторой степени лидерство в гонке по установлению направлений правил безопасного и надежного внедрения ИИ в обществе, поскольку другие могут постоянно быть пойманы врасплох. в трясине деталей того, как регулировать что-то столь неуловимое и постоянно развивающееся, как ИИ.

Нравится эта статья? Нажмите здесь, чтобы подписаться на полный доступ.

Европейский Союз (ЕС), который долгое время считался золотым стандартом регулирования данных, конфиденциальности и технологий и с упором на соблюдение таких принципов, как права человека и защита потребителей, провел более двух лет в переговорах среди 27 государств-членов, но, как сообщается, все еще изо всех сил пытаюсь прийти к окончательному соглашению для своего Закона об искусственном интеллекте. Правила ЕС иллюстрируются их классификацией по уровням риска, связанным с системами искусственного интеллекта, и, следовательно, к ним относятся в соответствии с различными требованиями и соответствиями, причем эти системы классифицируются как «высокие риски», которые подлежат строгому контролю со стороны закона.

Если подход ЕС сосредоточен на законодательстве и регулировании, то американский путь в гораздо большей степени связан с установлением правил для достижения тех же целей безопасности, защищенности и надежности, с прицелом на развитие для поддержания или даже расширения технологического лидерства Соединенных Штатов. Среди восьми определенных действий в указе только одно касается установления правил – хотя это самый длинный и существенный раздел – а семь других действий больше касаются политики развития, включая собственное применение и использование ИИ федеральным правительством.

Самый существенный раздел указа касается « обеспечение безопасности и защищенности технологий искусственного интеллекта », в котором содержится призыв к установление правил над руководящими принципами и стандартами, а также разработчикам «потенциальных моделей фундаментов двойного назначения» сообщать федеральному правительству информацию об учебной деятельности, владении такими моделями, а также о результатах тестов безопасности красной команды. Успех этого раздела указа будет зависеть главным образом от сотрудничества коммерческих разработчиков моделей ИИ, основанных на «добровольные обязательства» получено от «ведущих компаний в области искусственного интеллекта» после серии встреч и переговоров между Белым домом и этими компаниями в предшествующие месяцы.

Хотя этому одному действию из восьми было уделено наибольшее внимание, остальная часть указа в основном посвящена стратегии развития отрасли и применения чтобы Соединенные Штаты сохранили свое лидерство. Остальные действия касаются:

  • Содействие инновациям и конкуренции : включая реализацию пилотной программы для Национального исследовательского ресурса ИИ (NAIRR), усиление защиты интеллектуальной собственности (ИС) и борьбу с кражей ИС, а также продвижение использования ИИ в здравоохранении и борьбе с изменением климата, а также призыв к Федеральной торговой комиссии (FTC) рассмотреть возможность использования своих нормотворческих полномочий для дальнейшего обеспечения конкуренции на рынке ИИ и т. д.
  • Поддержка работников : дальнейшее понимание влияния ИИ на работников, включая возможности трудоустройства, увольнения или их благополучие, с целью создания рабочей силы, готовой к использованию ИИ.
  • Продвижение справедливости и гражданских прав : борьба с незаконной дискриминацией, которая, возможно, усугубляется ИИ, в таких областях, как система уголовного правосудия, правоохранительная деятельность, государственные социальные льготы, а также в более широкой экономике, такой как найм, жилье и транспорт.
  • Защита потребителей, пациентов, пассажиров и студентов : это действие призывает к «введению стандартов безопасности, конфиденциальности и защиты» в тех областях, на которые влияет ИИ, в секторах здравоохранения и социальных услуг, транспорта и образования, используя отраслевой подход, чтобы попытаться защитить людей от мошенничества или дискриминации, без законодательства.
  • Защита конфиденциальности : аналогично последнему действию, указанному выше, это действие не связано с установлением правил режима регулирования конфиденциальности, а скорее просто переоценкой использования коммерчески доступной информации, уже полученной государственными учреждениями, и поощрением разработки технологий повышения конфиденциальности (PET).
  • Продвижение использования искусственного интеллекта федеральным правительством : создание руководства по управлению ИИ в федеральных правительственных учреждениях, включая наем большего количества специалистов по обработке данных и назначение главного специалиста по ИИ в каждом агентстве.
  • Укрепление американского лидерства за рубежом : создание плана глобального взаимодействия по продвижению и развитию стандартов ИИ, а также других мер, формирующих основу американской дипломатии ИИ.

Поэтому нам следует иметь в виду, что такое указ нет – то есть регулирование, хотя его часто называют таковым. Хотя оно имеет создал основу для государственного надзора Из наиболее передовых проектов ИИ, особенно тех, которые имеют последствия двойного назначения, он не следует модели ЕС с лицензированием или другими строгими требованиями. Это скорее набор политик и директив развития отрасли, потенциально формирующих основу для ЧИПС и Закон о науке 2.0 – где фактическое будущее законодательство будет включать финансовые ассигнования и другие меры для усиления поддержки исследований и разработок или увеличения визовых квот для иностранных талантов.

Кроме того, как проявление Мягкая сила искусственного интеллекта США исполнительный указ направлен на то, чтобы продолжать полагаться на Внутреннее управление искусственным интеллектом в США будет влиять на мир начиная со стандартов и руководящих принципов, которые будут приняты федеральным правительством США.

Глобальная инициатива Китая по управлению искусственным интеллектом

Интересно отметить то, что многие, возможно, упустили из виду: менее чем за две недели до объявления указа США Китай фактически также объявил о своем Глобальная инициатива управления искусственным интеллектом на форуме «Пояс и путь» в Пекине, где страна отметила 10-летие своей инициативы «Пояс и путь».

В отличие от правительственного указа США, состоящего почти из 20 000 слов, китайское заявление содержало всего около 1500 символов и придерживалось лишь ряда принципов высокого уровня, таких как поддержка «ориентированного на человека подхода к разработке ИИ», соблюдение «развития ИИ во благо», «справедливость и недискриминация», «широкое участие и принятие решений на основе консенсуса», «поощрение использования технологий ИИ для предотвращения рисков ИИ» и так далее.

Нравится эта статья? Нажмите здесь, чтобы подписаться на полный доступ.

Но в этой инициативе есть некоторые тонкие формулировки, которые могут более раскрыть истинные цели Китая. Он подтверждает необходимость «уважать национальный суверенитет других стран и строго соблюдать их законы». Он выступает против «использования технологий искусственного интеллекта в целях манипулирования общественным мнением, распространения дезинформации, вмешательства во внутренние дела других стран… и постановки под угрозу суверенитета других государств». Он выступает за «представительство и голос развивающихся стран в глобальном управлении ИИ», а также утверждает, что они должны «постепенно устанавливать и совершенствовать соответствующие законы, положения и правила».

Действительно, цели Китая были более явно продемонстрированы в Комментаторская статья People’s Daily 19 октября, раскритиковав майскую совместную декларацию «Большой семерки» по управлению ИИ за «проведение границ, основанных на системе ценностей», тем самым создав «технологический малый круг», чтобы исключить участие Китая в установлении стандартов в области технологий ИИ.

Поэтому несколько иронично видеть Временные меры по управлению услугами генеративного искусственного интеллекта , совместно одобренный семью министерствами и ведомствами Китайской Народной Республики в июле 2023 года. Статья 4 призывает в качестве первого и главного из списка принципов для тех, кто предоставляет генеративные услуги ИИ, «поддерживать основные социалистические ценности». Действительно, подход Китая к установлению регулирования ИИ вряд ли был «постепенным», но довольно быстрым и решительным, хотя он довольно часто «улучшает» эти законы. В целом эти законы широкий и неопределенный часто ссылаясь на принципы и общие термины высокого уровня и оставляя огромное пространство для интерпретации со стороны руководящих органов.

От британского саммита по искусственному интеллекту к ИИ-дипломатии

Учитывая, что гонку за регулирование ИИ возглавляют США, Китай и ЕС, было несколько неожиданностью то, что правительство Великобритании объявило в июне 2023 года, что проведет первый глобальный саммит по безопасности ИИ. Действительно, Великобритания до сих пор отстает в регулировании ИИ, а премьер-министр Риши Сунак заявил, что он не стал бы «торопиться регулировать» ИИ .

Но именно администрация Байдена в Соединенных Штатах затмила гром новаторского мероприятия, на котором присутствовали ведущие правительственные, деловые и академические лидеры со всего мира. Соединенные Штаты взяли на себя инициативу, объявив о своем президентском указе всего за два дня до начала саммита, тем самым предоставив присутствующему вице-президенту США Камале Харрис платформу для «грубая демонстрация силы США в области новых технологий».

На саммите был достигнут прогресс с подписанием Декларация Блетчли , согласованный 27 странами, включая Китай и США, а также Европейским Союзом. В коммюнике основное внимание уделяется устранению рисков передового ИИ, чтобы «выявить риски для безопасности ИИ, связанные с общими проблемами, выстроить общее научное и научно обоснованное понимание» и «разработать соответствующую политику, основанную на рисках, в разных странах для обеспечения безопасности».

Однако не следует упускать из виду, что правительство США в своем объявлении о своем указе об искусственном интеллекте также заявило о своих усилиях по построить свою международную структуру путем взаимодействия с 20 странами и ЕС , охватывающий большинство стран-участниц и подписавших Декларацию Блетчли. В этом смысле Соединенные Штаты позаботились о том, чтобы они доминировали в дискурсе на Саммите по безопасности ИИ, при этом приветствуя участие Китая, формируя основу для будущих рамок для глобальная дипломатия искусственного интеллекта.

Действительно, были частые призывы разработать международную нормативную базу для управления ИИ со стороны ученых и лидеров бизнеса, например, поддержка нового агентства, подобного Международному агентству по атомной энергии. Саммит по безопасности искусственного интеллекта в Великобритании может стать первым шагом в этом направлении.

И неудивительно, что…