В мае Европарламент должен провести голосование по знаменательному Закону об искусственном интеллекте — первой в мире комплексной попытке регулировать использование ИИ.

Однако гораздо меньше внимания уделялось тому, как будут реализовываться на практике ключевые аспекты закона, относящиеся к «высокорисковым» применениям систем ИИ. Это дорогостоящее упущение, потому что нынешний предполагаемый процесс может серьезно поставить под угрозу основные права.

Технические стандарты — кому, что и почему это важно?

В соответствии с текущей версией закона к технологиям искусственного интеллекта с высоким уровнем риска относятся технологии, используемые в образовании, найме сотрудников и управлении ими, предоставлении социальных пособий и услуг, а также в правоохранительных органах. Хотя они не запрещены, любой поставщик, который хочет вывести технологию искусственного интеллекта с высоким уровнем риска на европейский рынок, должен будет продемонстрировать соответствие «основным требованиям» закона.

Однако в законе неясно, что эти требования на самом деле влекут за собой на практике, и законодатели ЕС намерены передать эту ответственность двум малоизвестным организациям по техническим стандартам.

Европейский комитет по стандартизации (CEN) и Европейский комитет по электротехнической стандартизации (CENELEC) определены в Законе об ИИ как ключевые органы для разработки стандартов, устанавливающих технические рамки, требования и спецификации для приемлемых технологий искусственного интеллекта с высоким риском.

Эти органы почти полностью состоят из инженеров или технологов, представляющих государства-члены ЕС. При незначительном представительстве экспертов по правам человека или организаций гражданского общества существует реальная опасность того, что эти органы будут иметь де-факто власть определять, как реализуется Закон об искусственном интеллекте, без средств, обеспечивающих достижение его намеченной цели — защиты фундаментальных прав людей. прав — действительно выполнено.

В ARTICLE 19 мы уже более полувека работаем над созданием и усилением учета прав человека в технических органах по стандартизации, включая Инженерную группу Интернета (IETF), Институт инженеров по электротехнике и электронике (IEEE) и Международный союз электросвязи (МСЭ). Мы знаем из опыта, что они не настроены на осмысленное рассмотрение этих соображений.

Когда дело доходит до технологии, невозможно полностью отделить выбор технического дизайна от реального воздействия на права отдельных лиц и сообществ, и это особенно верно в отношении систем искусственного интеллекта, которые CEN и CENELEC должны будут решить в соответствии с текущими условиями. Закон.

Стандарты, которые они разрабатывают, скорее всего, будут содержать требования, связанные с управлением данными, прозрачностью, безопасностью и контролем со стороны человека.

Все эти технические элементы будут иметь прямое влияние на право людей на неприкосновенность частной жизни и косвенные последствия для их прав на протест, надлежащую правовую процедуру, здоровье, работу и участие в социальной и культурной жизни. Однако, чтобы понять, что представляют собой эти воздействия, и эффективно их устранить, инженерных знаний недостаточно; нам также нужно, чтобы специалисты в области прав человека участвовали в этом процессе.

Хотя Европейская комиссия особо указывала на необходимость такой экспертизы, а также на представление других общественных интересов, на практике этого будет трудно добиться.

За небольшими исключениями, членство в CEN и CENELEC закрыто для участия любых организаций, кроме национальных органов по стандартизации, которые представляют интересы государств-членов ЕС. Даже если экспертам по правам человека был предоставлен надежный способ независимого участия, отсутствуют какие-либо обязательства или механизмы подотчетности, гарантирующие, что в этом процессе будет соблюдаться учет основных прав, особенно когда эти соображения вступают в противоречие с бизнесом или правительством. интересы.

Стандартизация как политический акт

Стандартизация, далеко не чисто техническое мероприятие, скорее всего, будет носить сугубо политический характер, поскольку CEN и CENELEC будут отвечать на некоторые из наиболее сложных вопросов, оставленных открытыми в основных требованиях Закона — вопросы, которые было бы лучше решать посредством открытых , прозрачные и консультативные политические и регуляторные процессы.

В то же время Европейский парламент не будет иметь возможности наложить вето на стандарты, утвержденные Европейской комиссией, даже если детали этих стандартов могут потребовать дальнейшего демократического изучения или законодательного толкования. В результате эти стандарты могут резко ослабить реализацию Закона об ИИ, сделав его беззубым против технологий, которые угрожают нашим основным правам.

Если ЕС серьезно относится к своей приверженности регулированию ИИ таким образом, чтобы уважать права человека, передача этих соображений техническим органам не является ответом.

Лучший путь вперед может включать создание системы «оценки воздействия на основные права» и требование, чтобы все системы искусственного интеллекта с высоким уровнем риска оценивались в соответствии с этой системой в качестве условия размещения на рынке. Такой процесс может помочь обеспечить правильное понимание этих технологий, их анализ и, при необходимости, смягчение последствий в каждом конкретном случае.

Закон ЕС об искусственном интеллекте — это важная возможность провести столь необходимые красные линии вокруг наиболее вредных видов использования технологий искусственного интеллекта и внедрить передовой опыт для обеспечения подотчетности на протяжении всего жизненного цикла систем искусственного интеллекта. Законодатели ЕС намерены создать надежную систему, которая защищает основные права человека и ставит людей на первое место. Однако, уступая столько полномочий организациям по техническим стандартам, они подрывают весь этот процесс.