Вывод LG Research AI на подсказку: «регулятор искусственного интеллекта»

Похоже, что появление ChatGPT и других систем искусственного интеллекта усложнило усилия Европейского Союза по реализации Закона об ИИ, в основном из-за того, что он поставил под сомнение лежащие в его основе предположения. Предлагаемое регулирование направлено на управление разнообразным и быстро растущим ландшафтом ИИ. В действительности, однако, нет ничего, что можно было бы назвать «ИИ». Вместо этого в эту категорию входят различные программные инструменты, которые используют разные методы для достижения разных целей. Попытка ЕС охватить такой разрозненный набор вопросов в рамках общей нормативно-правовой базы, скорее всего, не будет соответствовать намеченным целям.

Обзор Закона об искусственном интеллекте

По предложению Европейской комиссии, Закон об ИИ будет регулировать использование систем ИИ, которые якобы представляют риск для здоровья, безопасности и основных прав. Предложение определяет системы ИИ в широком смысле, включая любое программное обеспечение, использующее машинное обучение, и сортирует их по трем уровням риска: неприемлемый, высокий и ограниченный риск. Системы с неприемлемым риском полностью запрещены, а к системам с высоким риском предъявляются строгие требования, включая обязательную оценку соответствия. К системам с ограниченным риском предъявляются определенные требования, конкретно связанные с надлежащей документацией и прозрачностью.

Однако, как отметил мой коллега Миколай Барцентьевич, Закон об искусственном интеллекте по-прежнему несовершенен. При таком широком определении ИИ закон будет применяться даже к обычному программному обеспечению общего назначения, не говоря уже о программном обеспечении, которое использует машинное обучение, но не представляет значительных рисков. Простые термины Закона об ИИ можно интерпретировать как охватывающие обычные офисные приложения, спам-фильтры и механизмы рекомендаций, что потенциально может налагать на предприятия значительное бремя соблюдения требований за использование ими объективно безвредного программного обеспечения.

Понимание регуляторной чрезмерной агрегации

Гиперагрегация регулирования, то есть группировка огромного количества разрозненных и только номинально связанных между собой субъектов в рамках единого режима регулирования, воплощенного в абстрактном понятии, не нова. Мы можем видеть доказательства этого в предыдущих попытках ЕС использовать Общий регламент по защите данных (GDPR) для наблюдения за обширной областью «конфиденциальности».

«Конфиденциальность» — это емкое понятие, которое включает, например, как чувство страха, которое некоторые отдельные пользователи могут испытывать в ответ на отслеживание программным обеспечением adtech, так и потенциальные нарушения ожиданий отдельных лиц в отношении конфиденциальности данных о местоположении, когда сотовая связь провайдеры продают данные охотникам за головами. По правде говоря, то, что мы называем «конфиденциальностью», включает в себя множество отдельных проблемных областей, которые лучше определены и регулируются в соответствии с конкретным вредом, который они представляют, а не под одним всеобъемлющим регулирующим зонтиком.

Точно так же регулирование «ИИ» сталкивается с проблемой решения различных, в основном не связанных между собой проблем, от дискриминационной предвзятости при кредитовании или найме до использования интеллектуальной собственности и непрозрачных алгоритмов, используемых в мошеннических или вредоносных целях. Чрезмерно агрегированное регулирование, такое как Закон об искусственном интеллекте, приводит к тому, что структура является одновременно чрезмерно инклюзивной (создавая ненужное бремя для отдельных лиц и предприятий) и недостаточно инклюзивной (не способной устранить потенциальный вред в своей мнимой области внимания из-за ее чрезмерно широкого охвата).

Другими словами, как отмеченный Кай Зеннер, помощник министра Европарламента Акселя Восса, Закон об ИИ одержим риски в ущерб инновации :

Эта чрезмерная агрегация, вероятно, помешает Закону об ИИ эффективно решать уникальные проблемы и риски, связанные с различными типами технологий, составляющих системы ИИ. Поскольку ИИ продолжает быстро развиваться и диверсифицировать свои приложения, универсальный подход может оказаться неадекватным для конкретных потребностей и проблем различных секторов и технологий. В то же время слишком широкий охват регулирования угрожает затормозить инновации, заставляя фирмы сомневаться в том, следует ли им использовать алгоритмические инструменты.

Разделение регулирования и разработка правильного фокуса

Ландшафт ИИ сложен и постоянно меняется. Его системы включают в себя различные приложения в таких отраслях, как здравоохранение, финансы, развлечения и безопасность. Таким образом, нормативно-правовая база для решения проблем ИИ должна быть гибкой и адаптивной, способной учитывать широкий спектр технологий и вариантов использования ИИ.

Что еще более важно, нормативно-правовая база в целом должна быть направлена ​​на устранение вреда, а не на саму технологию. Если, например, подозревается предвзятость при приеме на работу — будь то с помощью алгоритма искусственного интеллекта или простой электронной таблицы Excel — этот вопрос следует решать в рамках трудового законодательства. Если трудовое законодательство или любой другой класс законов не учитывает негативное использование алгоритмических инструментов, их следует соответствующим образом обновить.

Подобные нюансы должны применяться в таких областях, как интеллектуальная собственность, уголовное право, жилье, мошенничество и так далее. Мы хотим, чтобы закон фиксировал незаконное поведение злоумышленников, а не занимал универсальную позицию в отношении конкретного программного инструмента, который может использоваться по-разному в различных контекстах.

Повторюсь: это вред это имеет значение, и правила должны быть разработаны для устранения известного или весьма вероятного вреда в четко определенных областях. Создание всеобъемлющего регулирования ИИ, которое пытается устранить любой мыслимый вред на корневом технологическом уровне, нецелесообразно и может стать обременительным препятствием для инноваций. Прежде чем совершить ошибку, ЕС должен пересмотреть Закон об ИИ и принять более целенаправленный подход к вреду, который могут нанести технологии ИИ.