Опросы 10 крупнейших венчурных фондов и двух крупнейших акселераторов стартапов, инвестирующих в компании, занимающиеся генеративным искусственным интеллектом, показали, что почти никто из них не предпринимает шагов по защите прав человека.

Ведущие венчурные компании не выполняют свои обязанности по соблюдению прав человека, особенно в отношении новых технологий генеративного искусственного интеллекта, предупреждают Amnesty International USA (AIUSA) и Ресурсный центр бизнеса и прав человека в опубликованном сегодня исследовании.

«Генераторный ИИ готов стать преобразующей технологией, которая потенциально может коснуться всего в нашей жизни. Хотя эта новая технология открывает новые возможности, она также создает невероятные риски, которые, если их не остановить, могут подорвать наши права человека». Майкл Кляйнман, директор Инициативы Силиконовой долины AIUSA

Ведущие венчурные компании отказались внедрить базовые процессы комплексной проверки прав человека, чтобы гарантировать, что компании и технологии, которые они финансируют, соблюдают права, как того требуют Руководящие принципы ООН в области бизнеса и прав человека (UNGP). Это особенно тревожно, учитывая потенциально преобразующее воздействие, которое технологии генерирующего искусственного интеллекта могут оказать на нашу экономику, политику и общество.

Майкл Кляйнман, директор Инициативы Кремниевой долины AIUSA , сказал: «Генераторный ИИ готов стать преобразующей технологией, которая потенциально может затронуть все в нашей жизни». Хотя эта новая технология открывает новые возможности, она также создает невероятные риски, которые, если их не остановить, могут подорвать наши права человека. Венчурный капитал вкладывает значительные средства в эту область, и нам необходимо обеспечить, чтобы эти деньги использовались ответственно и с уважением к правам человека».

Вечером в пятницу, 9 декабря, переговорщики ЕС достигли политическое соглашение по Закону об искусственном интеллекте, открывая путь для юридического надзора за технологией. На данный момент закон считается наиболее всеобъемлющим в мире по вопросам искусственного интеллекта и затронет компании во всем мире, а это означает, что венчурным компаниям необходимо быстро пересмотреть свой подход. Системы искусственного интеллекта высокого риска, охватывающие различные сектора, должны пройти обязательную оценку воздействия на фундаментальные права. Европейский парламент заявил, что алгоритмы, наносящие «значительный потенциальный вред здоровью, безопасности, основным правам, окружающей среде, демократии и верховенству закона», считаются высокорискованными, включая системы искусственного интеллекта, которые могут влиять на результаты выборов и поведение избирателей. Закон также предоставляет гражданам право подавать жалобы и получать объяснения по решениям, принятым на основе искусственного интеллекта, которые повлияли на их права.

Мередит Вейт, исследователь технологий и прав человека, Ресурсный центр по бизнесу и правам человека , сказал: «Обязательство по оценке воздействия на фундаментальные права в рамках нового Закона ЕС об искусственном интеллекте очень приветствуется, особенно учитывая его влияние на развертывание недоработанных генеративных систем искусственного интеллекта, но, поскольку более мелкие детали еще предстоит доработать, важно, чтобы основанный на правах человека Этот подход проявляется в более конкретных требованиях регулирования – как для государственных, так и для частных субъектов. Таким образом, инвесторы смогут принимать обоснованные решения, учитывая важные права человека и материальные риски. И хотя ЕС продвигает важное обязательное законодательство о комплексной корпоративной проверке в виде Директивы о комплексной проверке корпоративной устойчивости (CSDDD), которая, как мы надеемся, сможет заполнить некоторые лазейки в Законе об искусственном интеллекте, нельзя полагаться на то, что она удержит всех участников технологического процесса. экосистема для учета. Например, стартапы, разрабатывающие потенциально опасные системы искусственного интеллекта, должны подвергаться тщательной проверке в соответствии с Законом ЕС об искусственном интеллекте, поскольку они не подпадают под действие CSDDD».

Наши исследования

Чтобы оценить, в какой степени ведущие венчурные компании проводят комплексную проверку прав человека при своих инвестициях в компании, разрабатывающие генеративный искусственный интеллект, Amnesty International USA и Ресурсный центр по вопросам бизнеса и прав человека опросили 10 крупнейших венчурных фондов которые инвестировали в компании, занимающиеся генеративным искусственным интеллектом, и два крупнейших стартап-акселератора наиболее активно инвестируют в генеративный искусственный интеллект.

Опрошенные венчурные компании и акселераторы стартапов, базирующиеся в США, были Инсайт Партнеры , Тайгер Глобал Менеджмент , Секвойя Капитал , Андреессен Горовиц , Венчурные партнеры Lightspeed , Новые корпоративные партнеры , Бессемерские венчурные партнеры , Генеральные партнеры Catalyst , Фонд основателей , Технологические кроссоверные предприятия , Техстарс и Y-комбинатор .

Этот анализ показал, что большинство ведущих венчурных компаний и акселераторов стартапов игнорируют свою ответственность за соблюдение прав человека при инвестировании в стартапы с генеративным ИИ:

  • Только три из 12 фирм упоминают о публичном обязательстве учитывать ответственные технологии в своих инвестициях;
  • Только одна из 12 фирм упоминает о своей явной приверженности правам человека;
  • Лишь одна из 12 фирм заявляет, что при принятии решения об инвестировании в компании она проводит комплексную проверку вопросов, связанных с правами человека; и
  • Только одна из 12 фирм в настоящее время поддерживает свои портфельные компании по вопросам ответственных технологий.

В докладе содержится призыв к венчурным компаниям придерживаться UNGP, которые предусматривают, что как инвесторы, так и компании-получатели инвестиций должны предпринимать активные и постоянные шаги для выявления и реагирования на потенциальное или фактическое воздействие генеративного ИИ на права человека. Это предполагает проведение должной осмотрительности в области прав человека для выявления, предотвращения, смягчения и учета того, как они устраняют свое воздействие на права человека.

Кляйнман добавил: «Генераторный ИИ потенциально может принести пользу, но он также может способствовать физическому вреду, психологическому вреду, репутационному вреду и социальной стигматизации, экономической нестабильности, потере автономии или возможностей, а также еще больше усугублять системную дискриминацию отдельных лиц и сообществ. Это особенно относится к использованию генеративного ИИ в контекстах высокого риска, таких как зоны конфликтов, пересечение границ или когда его навязывают уязвимым людям. В нынешних глобальных условиях риски не могут быть более критическими.

«Фирмы венчурного капитала несут срочную ответственность за принятие упреждающих и постоянных шагов по выявлению и реагированию на потенциальное или фактическое воздействие генеративного ИИ на права человека».

Вейт заключил: «Конечно, можно увидеть огромный потенциал новых технологий, когда они разрабатываются с использованием человекоцентричного подхода. К сожалению, до сих пор история генеративного искусственного интеллекта в основном сводилась к максимизации прибыли за счет людей, особенно маргинализированных групп. Но инвесторам, компаниям, правительствам и правообладателям еще не поздно вернуть себе контроль над тем, как мы хотим, чтобы эта технология проектировалась, развивалась и внедрялась. Есть определенные решения, которые мы не должны позволять Генеративному ИИ принимать за нас».