Европейский парламент согласился закрыть критический спорный момент Закона об искусственном интеллекте, приняв определение, используемое Организацией экономического сотрудничества и развития (ОЭСР). Большинство других определений также были согласованы, а новые меры, такие как право на разъяснение, также находятся на столе законодателей ЕС.

В прошлую пятницу (3 марта) представители политических групп Европейского парламента, работающих над Законом об искусственном интеллекте, достигли политического соглашения по одной из наиболее политически чувствительных частей файла, самому определению искусственного интеллекта, по словам двух чиновников Европарламента.

Закон об искусственном интеллекте является флагманским законодательным предложением по регулированию этой новой технологии на основе ее способности причинять вред. То, что определяется как искусственный интеллект, будет иметь большое значение, поскольку оно также будет определять сферу действия свода правил ЕС по искусственному интеллекту.

«Система искусственного интеллекта» (система ИИ) означает машинную систему, которая предназначена для работы с различными уровнями автономности и которая может для явных или неявных целей генерировать выходные данные, такие как прогнозы, рекомендации или решения, влияющие на физические или виртуальные объекты. средах», — говорится в тексте, увиденном EURACTIV, который обсуждался в пятницу.

определение ИИ

По словам одного представителя ЕС, присутствовавшего на встрече, соглашение заключалось в том, чтобы исключить из формулировки понятие «машинная система». В настоящее время ожидается пересмотренный текст от офиса содокладчиков Брандо Бенифеи и Драгоша Тудораче.

Это определение во многом совпадает с определением ОЭСР, международной организации, которую часто считают клубом богатых стран.

Точно так же дополнение к преамбуле текста призывает к тому, чтобы определение ИИ было «тесно увязано с работой международных организаций, работающих над искусственным интеллектом, для обеспечения правовой определенности, гармонизации и широкого признания».

Международное признание — это линия, продвигаемая консервативной Европейской народной партией, которая также хотела сузить определение до систем, основанных на машинном обучении, в то время как левоцентристские законодатели требовали более широкого подхода, нацеленного на автоматизированное принятие решений.

Кроме того, была включена формулировка, в которой говорится, что ссылка на прогнозы включает в себя контент, мера, предназначенная для обеспечения того, чтобы генеративные модели ИИ, такие как ChatGPT, не попадали под действие регламента.

«Но тогда следующий вопрос, конечно, подпадают ли они под высокий риск и главу 2. [related obligations] или может рассчитывать на большой GPAI [General Purpose Artificial Intelligence] освобождение», — сказал парламентский чиновник, подчеркнув спорный вопрос, который депутаты Европарламента едва начали решать.

В сопроводительном тексте также указывается, что ИИ следует отличать более простыми программными системами или подходами к программированию и что поставленные цели могут отличаться от предполагаемой цели системы ИИ в конкретном контексте.

Примечательно, что в компромиссе отмечается, что если модель ИИ интегрирована в более обширную систему, полностью зависящую от компонента ИИ, вся система считается частью единого решения ИИ.

Другие определения

В понедельник (6 марта) на техническом совещании было достигнуто соглашение по большинству других определений правил ИИ. В этом случае наиболее существенное дополнение к компромиссным поправкам, замеченным EURACTIV, касается определений значительного риска, биометрической аутентификации и идентификации.

«Значительный риск» означает риск, который является значительным с точки зрения его серьезности, интенсивности, вероятности возникновения, продолжительности его последствий и его способности повлиять на человека, множество лиц или повлиять на определенную группу лиц». документ уточняет.

Системы удаленной биометрической проверки были определены как системы ИИ, используемые для проверки личности людей путем сравнения их биометрических данных с эталонной базой данных с их предварительного согласия. Это отличается системой аутентификации, когда люди сами просят пройти аутентификацию.

Что касается биометрической категоризации, практики, недавно добавленной в список запрещенных вариантов использования, была добавлена ​​ссылка на определение личных характеристик и атрибутов, таких как пол или состояние здоровья.

В Директиву правоохранительных органов была внесена ссылка на профилирование правоохранительными органами.

Отдельные статьи

В четверг запланировано еще одно техническое совещание для обсуждения так называемых отдельных статей, положений, которые не обязательно связаны с остальной частью законопроекта.

Была введена новая статья с правом на разъяснение индивидуального принятия решения, которое применяется в случаях, когда ИИ информирует о решении, которое имеет юридические последствия или аналогичные последствия для кого-либо.

Содержательное объяснение должно включать роль решения ИИ в принятии решений, используемую логику и основные параметры, а также входные данные. Чтобы сделать это положение эффективным, правоохранительным и судебным органам запрещено использовать системы ИИ, защищенные правами собственности.

Другие новые меры включают требования доступности для поставщиков и пользователей ИИ, право не подвергаться несоответствующим моделям ИИ и обязательство по проектированию и разработке систем ИИ с высоким риском, чтобы свести к минимуму воздействие на окружающую среду.

Статьи об общих принципах, применимых ко всем системам искусственного интеллекта и грамотности в области искусственного интеллекта, в основном были сохранены, поскольку они были первоначально предложены на политическом собрании в середине февраля, но для их обсуждения не было времени.

[Edited by Zoran Radosavljevic]