Во вторник (24 октября) основные политические группы Парламента ЕС достигли соглашения по законопроекту о предотвращении распространения в Интернете материалов о сексуальном насилии над детьми (CSAM).
Предлагаемое постановление направлено на предотвращение CSAM и борьбу с ним, требуя от цифровых платформ в ЕС обнаруживать такие материалы и сообщать о них. Законопроект вызвал критику, поскольку в своей первоначальной форме он давал право судебным органам просить службы связи, такие как WhatsApp или Gmail, сканировать личные сообщения людей на предмет подозрительного контента.
Согласованный текст, который увидел Euractiv, фокусируется на Центре ЕС и приказах о выявлении. Ожидается, что Комитет Европейского парламента по гражданским свободам, правосудию и внутренним делам примет документ 13 ноября, открывая путь к последнему этапу законодательного процесса.
Центр ЕС
Центр ЕС станет центральным экспертным центром по борьбе с сексуальным насилием над детьми в ЕС. После компромиссного текста в сентябре, в котором основное внимание уделялось изменению ролей этого органа, в нынешний текст также внесены некоторые изменения.
Центр ЕС будет обладать «наиболее широкой правоспособностью, предоставляемой юридическим лицам» в соответствии с законодательством каждого государства-члена.
Предыдущие версии документа предполагали, что Центр ЕС должен быть расположен в Гааге, в Нидерландах, но это была обсуждаемая часть документа. В новой версии прямо не указано, где должен располагаться Центр, но говорится, что это место не может повлиять на задачи или процесс набора персонала.
Более того, оно должно находиться где-то, где его можно будет установить на месте после вступления постановления в силу. Местоположение должно обеспечивать «сбалансированное географическое распределение институтов ЕС», а также устойчивость, цифровую безопасность и возможность подключения «в отношении физической и ИТ-инфраструктуры и условий работы».
Центр также сможет искать CSAM в «общедоступном контенте», аналогично веб-сканеру, боту, используемому, например, поисковыми системами для сбора контента, чтобы он мог появиться в результатах поиска. OpenAI также использует эту технологию для ChatGPT.
Центр ЕС также должен быть независимым и иметь сотрудника по фундаментальным правам, который будет контролировать выполнение задач.
Европол
Европол может запросить информацию у Центра, которая, если ее считают «необходимой и соразмерной», должна пройти через «доступный инструмент безопасного обмена информацией, такой как сетевое приложение для безопасного обмена информацией», платформу обмена информацией, уже используемую Европолом, членом государства и третьи лица.
Если Центр ЕС обнаружит, что отчет «необоснован», его необходимо направить в Европол «в соответствии с законодательством Союза».
Персональные данные, обрабатываемые в информационной системе Европола, могут «предоставляться только в каждом конкретном случае, после подачи явного и обоснованного запроса, подтверждающего конкретную цель».
Так что Европол может передавать такие данные в Центр ЕС только тогда, когда это абсолютно необходимо и «соразмерно указанной цели». В последние годы Европол находился в центре расследования Европейского инспектора по защите данных в отношении методов обработки данных, выходящих за рамки его мандата, который позже был обновлен.
Порядки шифрования и обнаружения
Шифрование было, пожалуй, самой обсуждаемой частью законопроекта, касающегося приказов о обнаружении, которые будут изданы с требованием к службам связи обнаруживать подозрительные CSAM.
Организации по защите цифровых прав, эксперты и приложения для обмена сообщениями, такие как Signal или WhatsApp, заявили, что этот инструмент нарушит сквозное шифрование, ослабив безопасность данных и права на конфиденциальность.
Согласно новому тексту, технологии, используемые для обнаружения CSAM, должны проходить «независимую проверку их эффективности», независимо от того, предоставлены ли они Центром ЕС или разработаны поставщиком, использующим их.
Поскольку в регламенте всегда четко указано, что он должен быть технологически нейтральным, конкретных требований относительно того, какую технологию следует использовать, не существует.
В документе также говорится, что «Центр ЕС должен определить объем проверки, которая будет обнародована». Однако это не должно применяться к сквозному шифрованию.
Приказы о выявлении также должны быть нацелены на определенную группу пользователей. Например, «абоненты определенного канала связи». Даже в этом случае должны быть «разумные основания для подозрений» в отношении связи с сексуальным насилием над детьми, чтобы их можно было преследовать.
Магазины приложений и проверка возраста
Роль магазинов программных приложений в CSAM также некоторое время обсуждалась.
Поставщики магазинов приложений, назначенные в соответствии с Законом о цифровых рынках, обязаны в отношении приложений, использование которых не разрешено детям, предпринимать разумные усилия, чтобы гарантировать, что это действительно так. Депутаты Европарламента подробно описали конкретные критерии для систем проверки возраста.
Также можно использовать системы проверки возраста, но они не являются обязательными, только в случае с порноплатформами.
[Edited by Luca Bertuzzi/Nathalie Weatherald]
Узнайте больше с EURACTIV