Эта «новинка» внутри CNIL была в картах почти два года, но она особенно резонирует с ажиотажем вокруг ChatGPT. В июле 2021 года Национальная комиссия по информатике и свободам, как и ее европейские коллеги, приветствовала будущие европейские правила в отношении искусственного интеллекта.

Долгожданный анонс

Затем CNIL потребовал, чтобы его назначили национальным надзорным органом AI. Отмечая «очень сильную связь между регулированием систем ИИ [ venir] и данные, в частности личные данные», Государственный совет рекомендовал 30 августа «глубокое преобразование CNIL», чтобы он мог играть эту роль.

Создание службы искусственного интеллекта (СИА), вероятно, не приводит к реальной трансформации, но подтверждает позицию Комиссии. Служба объединит пять человек, «специализированных юристов и инженеров». SIA будет передана в ведение отдела технологий и инноваций, возглавляемого Бертраном Пайесом, бывшим координатором стратегии искусственного интеллекта в DINSIC.

Отдел искусственного интеллекта CNIL должен способствовать пониманию систем ИИ внутри компании, а также среди широкой общественности и профессионалов. Его роль будет заключаться в укреплении своего опыта «в знании и предотвращении рисков для конфиденциальности, связанных с внедрением этих систем».

CNIL предусматривает, что SIA будет играть в нем «многофункциональную роль». Ему будет предложено сотрудничать с отделом, отвечающим за юридическую поддержку, для разработки контрольных показателей и рекомендаций по запросу правительства или для распространения этих знаний среди частных и государственных субъектов.

Уже запланировано, что служба искусственного интеллекта будет помогать в «расследовании жалоб и принятии корректирующих мер», когда «нарушения» французских и европейских правил касаются использования систем ИИ.

Точно так же, как некоторые компании не ждут применения закона, касающегося ИИ, чтобы предвидеть основные моменты, по которым власти могут ожидать их на повороте, CNIL готов публично демонстрировать свой интерес к этому вопросу.

Во время круглого стола на саммите ИИ во Франции Бертран Пайес подтвердил, что Комиссия уже заняла «доктринальные позиции» в отношении некоторых проектов ИИ, осуществляемых французскими государственными органами.

Поэтому SIA придется развивать «отношения с игроками экосистемы» при подготовке к вступлению в силу положений об ИИ (широко известных как Закон об ИИ), которые в настоящее время разрабатываются на европейском уровне.

Закон об искусственном интеллекте: «серые зоны» будут сняты

Напоминаем, что Закон об ИИ направлен на разрешение, запрет и регулирование всех систем ИИ в соответствии с уровнями риска.

Во время знаменитого круглого стола директор по технологиям и инновациям CNIL также предусмотрел обращение к поставщикам решений и дискуссии с заинтересованными «актерами». «Понятие субъектов, введенное европейским законодательством об ИИ, касается поставщиков, дистрибьюторов, импортеров или даже пользователей», — объясняет Ян Билиссор, технический директор Data & IA в Cellenza, ИТ-консалтинговой фирме, эксперте в области технологий Microsoft. «Пользователи — это не пользователи, а прямые или косвенные клиенты поставщиков технологий, таких как Microsoft, Google или AWS».

Однако имеющиеся в настоящее время тексты содержат «серые зоны», отмечает технический директор, который сам ссылается на мнение юридической фирмы Smalt, партнера Cellenza. «Мы полагаемся на решения от облачного провайдера, чтобы помочь нашим клиентам разрабатывать проекты ИИ. Однако уровень ответственности между поставщиком и интегратором пока четко не определен в текстах. На данный момент нас можно рассматривать как поставщика услуг ИИ», — отмечает Ян Билиссор.

« […] Уровень ответственности между поставщиком и интегратором пока четко не определен в текстах [de l’AI Act européen] ».

Ян Билиссор технический директор, данные и искусственный интеллект, Cellenza

Решение о различных уровнях ответственности является важнейшим вопросом для всех компаний. Проект регламента уже предусматривает штрафы в размере до 30 млн евро или 6% от общего оборота компании, настаивает технический директор.

Другой вопрос для Яна Билиссора касается совместимости будущих европейских правил с текущим Общим регламентом по защите данных (GDPR). «Новый текст требует регистрации входных и выходных данных системы искусственного интеллекта», — объясняет он. «Представим, что входными данными являются фотографии лиц, по которым алгоритм компьютерного зрения выявляет кожные аномалии (акне, псориаз, экзему и т. д.), чтобы предложить подходящее лечение», — объясняет он. «Само по себе использование кажется нечувствительным, но в соответствии с GDPR мы не обязательно имеем право хранить эти фотографии, которые являются личными данными. Как сохранить входные данные, не нарушая GDPR? он задается вопросом.

«Работает», чтобы направлять частных и государственных субъектов

Именно в ответ на этот тип организации CNIL запускает параллельно с созданием SIA работу над «обучающими базами данных», более известными как обучающие наборы данных. Национальная комиссия по вычислительной технике и свободам утверждает, что получила запросы на разъяснения от компаний. Он хочет «продвигать передовой опыт в соответствии с требованиями GDPR» и готовить почву для будущих европейских правил.

Эта работа касается обучения систем машинного обучения и глубокого обучения, которое требует сбора данных из «всех типов источников». CNIL хочет консультировать частных и публичных игроков по составлению тренировочных игр, по этапам разработки и использованию моделей ИИ. В течение 2023 года он опубликует инструменты для сбора данных и практические листы «чтобы реагировать на наиболее распространенные ситуации». Однако власти еще не запустили никаких проектов, касающихся распространения и повторного использования наборов данных, а также моделей ИИ. Однако это один из самых распространенных вариантов использования в компаниях и исследовательских лабораториях. Эти вопросы «будут предметом отдельной работы», обещает CNIL.