Т место проведения будет живописным: здание XIX века к северу от Лондона, где во время Второй мировой войны жил Алан Тьюринг, его команда по взлому кодов и первый программируемый цифровой компьютер. Среди участников будет элитная группа из 100 мировых лидеров и руководителей технологических компаний. И вопрос, на который они будут стремиться ответить, является эпохальным: как гарантировать, что искусственный интеллект не станет инструментом неконтролируемых должностных преступлений и не повернется против человечества.

« ИИ Саммит по безопасности», который британское правительство проводит 1 и 2 ноября в Блетчли-парке, похоже, предназначен для написания учебников по истории. И действительно, однажды это может стать первым случаем, когда глобальные влиятельные лица сели, чтобы серьезно обсудить, что делать с технологией, которая может изменить мир. Как заметил Джонатан Блэк, один из организаторов, в отличие от других крупных политических дебатов, таких как изменение климата, «существует большая политическая воля что-то сделать, но неясно, что».

Попытки обуздать ИИ изобилуют. Переговоры в Брюсселе вступили в решающую стадию 25 октября, когда официальные лица пытались завершить амбициозную программу Европейского Союза. ИИ действовать до конца года. Ожидается, что за несколько дней до британского саммита или вскоре после него Белый дом издаст указ о ИИ . г Клуб 7 богатых демократий этой осенью начнет разработку кодекса поведения для ИИ фирмы. Китай, со своей стороны, 18 октября представил «Глобальную инициативу управления искусственным интеллектом».

Импульс обусловлен необычной политической экономией. Стимулы действовать и действовать сообща сильны. Для начинающих, ИИ это действительно глобальная технология. Большие языковые модели ( Магистр права s), которые обеспечивают работу таких устрашающе человекоподобных сервисов, как Chat GPT , путешествуйте легко. Некоторые из них можно запустить на ноутбуке. Затягивать винты бесполезно. ИИ в некоторых странах, если они остаются свободными в других. Избиратели могут быть за. Более половины американцев «скорее обеспокоены, чем взволнованы» использованием ИИ По данным опроса исследовательского центра Pew.

Эффект Пекина

Соперничество в сфере регулирования делает ситуацию еще более актуальной. Европы ИИ Целью закона отчасти является закрепление роли блока как разработчика глобальных цифровых стандартов. Белый дом хотел бы предотвратить такой «брюссельский эффект». Ни Евросоюз ни Америка хочет превзойти Китай, который уже принял несколько ИИ законы. Они были рассержены на британское правительство за приглашение Китая на саммит – не говоря уже о том, что без этого любой режим регулирования не был бы по-настоящему глобальным. (Китай действительно может появиться, даже если его интерес меньше в защите человечества, чем в Коммунистической партии.)

Еще один водитель ИИ Дипломатия, устанавливающая правила, еще более удивительна: сами создатели моделей. В прошлом технологическая отрасль в основном выступала против регулирования. Теперь такие гиганты, как Alphabet и Microsoft, и ИИ такие милые, как Anthropic и Open ИИ который создал Чат GPT , лоббируйте это. Компании обеспокоены тем, что необузданная конкуренция заставит их действовать безрассудно, выпуская модели, которыми легко можно злоупотребить, или начать развивать собственное мышление. Это действительно поставило бы их в горячую воду.

Другими словами, воля к действию присутствует. Чего нет, так это «чего-то похожего на консенсус относительно того, какими проблемами нам нужно управлять, не говоря уже о том, как мы должны ими управлять», — говорит Генри Фаррелл из Университета Джонса Хопкинса. Выделяются три дебата. О чем должен беспокоиться мир? На что должны быть нацелены любые правила? И как их следует обеспечивать?

Начните с целей регулирования. Их сложно установить, потому что ИИ развивается быстрыми темпами. Не проходит и дня, чтобы стартап не придумал что-то новое. Даже разработчики Магистр права Мы не можем с уверенностью сказать, какие возможности они проявят. Поэтому крайне важно иметь тесты, которые могут оценить, насколько они могут быть рискованными — что по-прежнему является скорее искусством, чем наукой. Без таких «оценок» (сокращение от оценок) будет сложно проверить, соответствует ли модель каким-либо правилам.

Технологические компании могут поддерживать регулирование, но хотят, чтобы оно было узким и нацелено только на экстремальные риски. На слушаниях в Сенате в Вашингтоне в июле Дарио Амодей, исполнительный директор Anthropic, предупредил, что ИИ Через несколько лет модели смогут предоставить всю информацию, необходимую для создания биологического оружия, что позволит «намного большему количеству субъектов осуществлять крупномасштабные биологические атаки». Подобные мрачные прогнозы делаются и в отношении кибероружия. Ранее в этом месяце Гэри Генслер, председатель Американской комиссии по ценным бумагам и биржам, предсказал, что финансовый кризис, вызванный искусственным интеллектом, «почти неизбежен» без быстрого вмешательства.

Другие утверждают, что эти спекулятивные риски отвлекают от других угроз, таких как подрыв демократического процесса. На более ранних слушаниях в Сенате Гэри Маркус, известный ИИ скептик, начал свои показания с отрывка из последних новостей, написанных GPT -4, Открыто ИИ топ-модель. В нем убедительно утверждалось, что часть Конгресса «тайно манипулировалась инопланетными существами». «Мы все должны быть глубоко обеспокоены, — утверждал г-н Маркус, — по поводу систем, которые могут свободно гадать».

Споры о том, что именно регулировать, разрешить будет не легче. Технологические компании в основном предлагают ограничить внимание наиболее мощными «передовыми» моделями. Microsoft, среди прочих, призвала к введению режима лицензирования, требующего от фирм регистрировать модели, производительность которых превышает определенные пороговые значения. Другие предложения включают контроль над продажей мощных чипов, используемых для обучения. Магистр права и обязать компании, занимающиеся облачными вычислениями, информировать власти, когда клиенты обучают передовые модели.

Большинство фирм также согласны с тем, что регулировать следует именно применение моделей, а не сами модели. Офисное программное обеспечение? Легкое прикосновение. Здравоохранение ИИ ? Строгие правила. Распознавание лиц в общественных местах? Наверное, никуда не годится. Преимущество такого регулирования, основанного на использовании, состоит в том, что существующих законов в большинстве случаев будет достаточно. ИИ разработчики предупреждают, что более широкие и навязчивые правила замедлят инновации.

До прошлого года Америка, Великобритания и Евросоюз похоже, согласились с этим подходом, основанным на риске. Захватывающий подъем Магистр права с момента запуска Чата GPT год назад заставляет их задуматься. Евросоюз теперь задается вопросом, нужно ли в конце концов контролировать сами модели. Европейский парламент хочет, чтобы производители моделей протестировали Магистр права s для потенциального воздействия на все: от здоровья человека до прав человека. Он настаивает на получении информации о данных, на которых обучаются модели. В парламенте Канады действует более жёсткий «Закон об искусственном интеллекте и данных». Бразилия обсуждает нечто подобное. Ожидается, что в Америке предстоящий указ президента Джо Байдена также будет включать некоторые более жесткие правила. Даже Великобритания может вернуться к своему подходу невмешательства.

Эти более жесткие правила будут представлять собой замену необязательных кодексов поведения, которые до сих пор были предпочтительным подходом. Прошлым летом Белый дом согласовал ряд «добровольных обязательств», которые сейчас подписали 15 производителей моделей. Фирмы согласились провести внутреннее и внешнее тестирование своих моделей перед выпуском и поделиться информацией о том, как они управляют ими. ИИ риски.

Тогда возникает вопрос, кто должен осуществлять регулирование. Америка и Великобритания считают, что существующие правительственные учреждения могут выполнить большую часть работы. Евросоюз хочет создать новый регулирующий орган. На международном уровне некоторые руководители технологических компаний теперь призывают к созданию чего-то вроде Межправительственной группы экспертов по изменению климата ( МГЭИК ), который И задачи быть в курсе последних исследований изменения климата и разрабатывать способы оценки его воздействия.

Учитывая все эти открытые вопросы, неудивительно, что организаторы лондонского саммита не кажутся такими амбициозными. В основном это следует воспринимать как «разговор», говорит г-н Блэк, организатор. Тем не менее, есть не такая уж и тайная надежда, что это принесет некоторые ощутимые результаты, особенно на второй день, когда в зале останутся только около 20 наиболее важных корпоративных и мировых лидеров. Они еще могли бы поддержать добровольные обязательства Белого дома и рекомендовать создание МГЭИК для ИИ или даже глобализация существующей в Британии «пограничной ИИ Оперативная группа».

Такой результат можно было бы считать успехом британского правительства. Это также ускорило бы более официальные усилия на глобальном уровне. ИИ управление, такое как г Кодекс поведения 7. Таким образом, это было бы полезным первым шагом. Это не будет последним.