Европейский Союз находится на пороге принятия знаменательного Закона об искусственном интеллекте (Закон об искусственном интеллекте), который – к лучшему или худшему – откроет ряд новых обязательств и скрытых ловушек для отдельных лиц и фирм, пытающихся ориентироваться в разработке, распространении и развертывание программного обеспечения.

В ближайшие месяцы мы будем углубляться в нюансы предлагаемого текста, стремясь осветить потенциальные проблемы и дилеммы интерпретации, которые ждут нас впереди. Эта серия послужит руководством для понимания и подготовки к последствиям Закона об искусственном интеллекте, гарантируя, что заинтересованные стороны будут хорошо информированы и готовы адаптироваться к возникающим на горизонте нормативным проблемам.

Закон об искусственном интеллекте был единогласно одобрен представителями национальных правительств ЕС 26 января (одобренный текст доступен). здесь ). Но это не конец законодательного процесса. Самое главное, что Европейский парламент еще не утвердил окончательный текст закона, а окончательное голосование запланировано на 10-11 апреля. Обычно ожидается, что парламент даст свое одобрение.

После принятия Закона об искусственном интеллекте нам все равно придется подождать, вероятно, до лета 2026 года, пока он не станет полностью применимым. Однако некоторые из его положений вступят в силу раньше. Например, запреты закона на такие практики, как использование систем искусственного интеллекта с «подсознательными методами», вступят в силу всего через шесть месяцев, а кодексы практики вступят в силу через девять месяцев (возможно, примерно к Пасхе 2025 года). Тогда как, например Ожидается, что правила в отношении моделей ИИ общего назначения вступят в силу примерно через год после вступления в силу, то есть примерно летом 2025 года.

В этом посте мы хотим высказать некоторые мысли о потенциальных проблемах, которые могут возникнуть в связи с определением в законе «системы искусственного интеллекта», которая во многом будет определять общую сферу применения закона.

Сфера действия Закона об искусственном интеллекте и его определение «системы искусственного интеллекта»

Как мы уже писал ранее Еще в первых проектах Закона об ИИ существовало опасение, что он «вообще не будет ограничиваться ИИ, а будет всеобъемлющим законодательством, охватывающим практически все программное обеспечение». Сфера действия закона определяется в первую очередь его разделом, определяющим «систему ИИ» (статья 3(1)). Это определение претерпело различные изменения, но конечный результат остается очень широким:

«Система искусственного интеллекта» — это машинная система, предназначенная для работы с различными уровнями автономии и которая может проявлять адаптивность после развертывания и которая для явных или неявных целей делает вывод на основе получаемых входных данных, как генерировать выходные данные, такие как прогнозы, контент, рекомендации или решения, которые могут повлиять на физическую или виртуальную среду.

«Различные уровни автономии» по-прежнему можно понимать как включающие низкие уровни автономии. «Вывод» из «входных данных» для создания «контента» также может иметь очень широкое прочтение, охватывающее почти все программное обеспечение.

Некоторая полезная ясность содержится в преамбуле закона (преамбулы используются для облегчения интерпретации законодательства ЕС): то есть ., в декларативной части 6, где прямо говорится, что определение:

должны основываться на ключевых характеристиках систем искусственного интеллекта, которые отличают их от более простых традиционных программных систем или подходов к программированию, и не должны охватывать системы, основанные на правилах, определенных исключительно физическими лицами, для автоматического выполнения операций.

Однако даже здесь сохраняются некоторые риски чрезмерного масштаба. Программисты уже широко используют инструменты искусственного интеллекта, такие как GitHub Copilot, который генерирует код, частично автоматизируя работу программистов. Следовательно, некоторые могут утверждать, что создаваемый ими кодекс включает правила, которые «не определяются исключительно физическими лицами».

Более того, этот рассказ характеризует способность «делать выводы» в широком смысле, включая программное обеспечение, которое мало кто охарактеризовал бы как «ИИ». В декламации делается попытка прояснить, что «[t]Способность системы ИИ делать выводы выходит за рамки базовой обработки данных и позволяет обучаться, рассуждать или моделировать». Однако понятия «обучение», «рассуждение» и «моделирование» являются спорными. Некоторые интерпретации этих концепций, особенно более старые, можно применить к тому, что большинство сегодня считает обычным программным обеспечением.

Учитывая это широкое определение, существует ощутимый риск того, что традиционные программные системы, такие как экспертные системы алгоритмы поиска и деревья решений все они могут непреднамеренно попасть под действие закона, несмотря на оговорку в декларативной части 6 о том, что определение «не должно охватывать системы, основанные на правилах, определенных исключительно физическими лицами, для автоматического выполнения операций».

Двусмысленность возникает из-за развивающейся природы этих технологий и их потенциального совпадения с функциями ИИ. Действительно, в каком-то смысле эти технологии мощь рассматриваться под эгидой «ИИ», поскольку они пытаются приблизиться к человеческому обучению. Но в другом смысле они этого не делают. Эти методы использовались на протяжении десятилетий и могут, как и уже давно, использоваться способами, не связанными с новейшими достижениями в исследованиях искусственного интеллекта.

Например, экспертные системы (используемые с 1965 года ) предназначены для использования обработки на основе правил для имитации способностей экспертов по принятию решений. Можно утверждать, что они выводятся из входных данных способами, которые не совсем отличаются от систем искусственного интеллекта, особенно когда они дополнены сложными логическими структурами, которые допускают определенную динамическую реакцию на новую информацию. Точно так же алгоритмы поиска, особенно те, которые используют сложную эвристику или методы оптимизации для улучшения результатов поиска, могут стереть грань между традиционной алгоритмической обработкой и возможностями искусственного интеллекта.

Деревья решений (также используемые с 1960-х годов) еще больше усложняют эту картину. В своей простейшей форме деревья решений представляют собой простые классификаторы, основанные на правилах. Когда они используются в методах ансамблевого обучения, таких как случайные леса или усиленные деревья Однако они способствуют способности системы учиться на данных и делать прогнозы, приближаясь к тому, что можно было бы назвать ИИ.

Таким образом, хотя некоторые из этих методов можно считать искусственным интеллектом, во многих случаях они являются компонентами программного обеспечения, которые используются в течение довольно долгого времени и не вызывают беспокойства. Нормативное внимание к таким технологиям программного обеспечения почти наверняка не достигнет цели и будет либо недостаточным, либо чрезмерным. Это потому, что они в некотором смысле пытаются регулировать использование математики.

Вот почему кажется, что гораздо лучший подход к устранению рисков, возникающих в результате использования ИИ (или любых компьютерных систем), — это использование правовых режимов, ориентированных на — и хорошо проверенных в борьбе с — конкретный вред ( например ., закон об авторском праве), связанные с использованием этих систем. Альтернативный подход ЕС к регулированию технологий искусственного интеллекта сталкивается с тяжелым бременем демонстрации того, что существующие законы недостаточны для устранения такого вреда. Мы скептически относимся к тому, что законодатели ЕС справились с этим бременем.

Тем не менее, если предположить, что ЕС сохранит свой нынешний курс, двусмысленность в толковании Закона об искусственном интеллекте вызывает серьезную обеспокоенность у разработчиков программного обеспечения. Без большей ясности закон потенциально подчинит своей нормативной базе широкий спектр программных систем, независимо от того, используют ли они алгоритмы обучения или нет. Эта неопределенность угрожает бросить тень на всю индустрию программного обеспечения, потенциально требуя от разработчиков даже традиционного программного обеспечения ориентироваться в сфере соблюдения Закона об искусственном интеллекте.

Такой сценарий неизбежно приведет к увеличению затрат на соблюдение требований, поскольку разработчикам, возможно, придется провести подробный анализ, чтобы определить, попадают ли их системы — на детальном уровне — в сферу действия закона, даже при использовании хорошо зарекомендовавших себя методов, не основанных на обучении. Это не только обременяет разработчиков дополнительными нормативными издержками, но также рискует задушить инновации из-за наложения необоснованных ограничений на разработку и внедрение программных решений.

Заключение

Неизбежно возникнет некоторая степень неопределенности относительно сферы применения Закона об ИИ. Частично эту неопределенность можно уменьшить, если: например ., явно ограничивая действие конкретными методами, которые в настоящее время широко считаются «ИИ» (даже само понятие «машинное обучение» является чрезмерно широким).

Закон об искусственном интеллекте обязывает Европейскую комиссию разработать руководящие принципы по применению законодательного определения системы искусственного интеллекта (в настоящее время: статья 82a). Можно надеяться, что руководящие принципы будут достаточно конкретными для решения обеспокоенность тем, что «Общественности говорят, что закон предназначен для охвата одной сферы жизни» (ИИ), «но в основном он охватывает что-то другое» (программное обеспечение, которое сегодня мало кто считает ИИ).

Публикация «Навигация по границам ИИ, часть I» впервые появилась на сайте «Правда на рынке».