В предыдущая статья мы представили дилемму регулирования ИИ в Индии. Правительство Индии взвесило нерегулятивный подход, подчеркнув необходимость инноваций, продвижения и адаптации к быстрому развитию технологий искусственного интеллекта, а также более осторожный подход, сосредоточив внимание на рисках, связанных с искусственным интеллектом, в частности, на сокращении рабочих мест, неправильном использовании данных. и другие непредвиденные последствия.

Мы утверждаем, что эта дилемма является результатом отсутствия целостной национальной стратегии в области искусственного интеллекта в Индии. В этой статье мы исследовать существующие подходы к регулированию ИИ в Великобритании, США, Европейском Союзе и Китае, а также проанализировать текущую экономическую и геополитическую ситуацию в Индии, чтобы разработать предложение по решению дилеммы регулирования ИИ в Индии.

Обладая надежной университетской системой и кадровым резервом, Соединенное Королевство имеет потенциал стать ведущим центром развития искусственного интеллекта. Чтобы стимулировать развитие отечественных технологий искусственного интеллекта, Великобритания недавно усыновленный «проинновационная» стратегия регулирования ИИ. Эта стратегия предлагает юридически необязательные рекомендации, возлагая регулирующие обязанности на существующие организации, такие как Управление по конкуренции и рынкам. Он служит механизмом сбора отзывов и мнений от различных заинтересованных сторон.

Американские технологические конгломераты уже доминируют на мировом рынке искусственного интеллекта. Чтобы закрепить свои преимущества, Соединенные Штаты приняли «отраслевую» стратегию, в рамках которой правительство запросило предложения от этих глобальных конгломератов ИИ по регулированию ИИ. Эта стратегия была отраженный в запросе Белого дома о добровольных обязательствах ведущих ИИ-компаний по управлению рисками ИИ.

ЕС представляет собой сильно фрагментированный рынок, на который американские технологические компании поставляют большую часть технологий и приложений искусственного интеллекта. Чтобы минимизировать риски для пользователей, ЕС разработал Закон об искусственном интеллекте и принял «ориентированную на риск» стратегию регулирования ИИ. Эта стратегия классифицирует продукты ИИ по отдельным категориям и оценивает потенциальный вред, который может нанести продукт ИИ, соответственно предусматривая необходимые меры предосторожности.

Нравится эта статья? Нажмите здесь, чтобы подписаться на полный доступ.

С нынешним Китайско-американское технологическое соревнование национальная безопасность стала первой задачей Китая приоритет когда дело доходит до регулирования ИИ. Китай принимает стратегию «государственного контроля» в отношении регулирования ИИ. Эта стратегия по сути означает, что правительство активное участие Разработка и внедрение искусственного интеллекта будет способствовать обеспечению безопасности, ответственному использованию и согласованию развития технологий со стратегическими целями страны.

Возвращаясь к Индии, какой путь следует выбрать стране?

Должна ли Индия проводить «проинновационную» политику, как Великобритания? По сравнению с Великобританией, в Индии отсутствует необходимая цифровая инфраструктура для разработки базовой модели искусственного интеллекта. Тем не менее, Индия обладает огромным резервом талантов для разработки программного обеспечения, а также быстро развивающимся потребительским рынком. Мы прогнозируем, что Индия станет крупным поставщиком приложений искусственного интеллекта, обслуживающим не только свой быстро развивающийся внутренний рынок, но и мировой рынок. Поэтому на данном этапе мы рекомендуем Индии принять «проинновационный» подход к разработке приложений ИИ.

Должна ли Индия принять политику, основанную на рисках, как Европейский Союз? Как и ЕС, Индия имеет фрагментированный рынок, а также сотрудничает с технологическими конгломератами США по большинству своих базовых технологий искусственного интеллекта. Однако, в отличие от ЕС, где действуют строгие законы о защите данных, Индия не хватало всеобъемлющее законодательство о защите данных до принятия Закона о защите цифровых персональных данных 2023 года. Поскольку Индия является партнером иностранных технологий создания искусственного интеллекта, мы рекомендуем Индии усовершенствовать свои законы о защите данных и принять «риск-ориентированный» подход к зарубежным моделям создания искусственного интеллекта.

Должна ли Индия принять «отраслевую» политику, как Соединенные Штаты? Если в обозримом будущем Индия собирается сотрудничать с иностранными технологическими конгломератами для разработки своих базовых моделей ИИ, для индийского правительства было бы лучше тесно сотрудничать с этими иностранными технологическими партнерами при разработке политики защиты данных и регулирования ИИ. Интересно отметить, что Microsoft уже сделала двигаться разработать предложение по регулированию ИИ для Индии.

Должна ли Индия принять политику «государственного контроля», как Китай? Мы выступаем против такого подхода, если только не произойдет резкого изменения геополитической позиции Индии. Во-первых, как упоминалось выше, Индии в настоящее время не хватает цифровой инфраструктуры, позволяющей исключительно разрабатывать ведущие в мире базовые модели искусственного интеллекта. Во-вторых, мы прогнозируем, что в обозримом будущем Индия останется союзником США, и маловероятно, что Вашингтон ограничит доступ Индии к американским технологиям искусственного интеллекта. Вместо этого на данном этапе Индии следует сосредоточиться на разработке приложений ИИ на основе базовых моделей ИИ от своих технологических партнеров, чтобы поддержать свой экономический рост.

Подводя итог, чтобы решить дилемму регулирования ИИ в Индии, мы даем следующие рекомендации: во-первых, Индии следует использовать свое преимущество в разработке программного обеспечения и принять «проинновационный» подход для стимулирования отечественных приложений ИИ. Во-вторых, Индии следует усовершенствовать свои законы о защите данных и принять «риск-ориентированный» подход к зарубежным моделям создания искусственного интеллекта. В-третьих, Индии следует тесно сотрудничать с крупными зарубежными технологическими партнерами для развития своей политики регулирования ИИ.