Европейский парламент одобрение Последняя неделя принятия Закона об искусственном интеллекте стала важной вехой в регулировании искусственного интеллекта. Хотя окончательный текст закона вызывает меньшую тревогу, чем первоначально предложенный, он, тем не менее, все еще содержит некоторые неясности, которые могут быть использованы регулирующими органами таким образом, чтобы препятствовать инновациям в ЕС.

Среди ключевых особенностей этого законодательства — введение «ИИ общего назначения» (GPAI) в качестве нормативной категории и способы взаимодействия этих GPAI с правилами авторского права. Двигаясь вперед на быстро превращающемся в глобальный рынок услуг генеративного ИИ, стоит также задуматься о том, как положения Закона об авторском праве ИИ контрастируют с действующим законодательством США об авторском праве.

В настоящее время закон США об авторском праве может создать более либеральную среду для обучения ИИ, одновременно создавая проблемы для правообладателей, которые хотят ограничить использование своих творческих работ в качестве входных данных для обучения систем ИИ. Тем не менее, есть также способы сделать структуру закона об авторском праве США более гибкой, поскольку она может (по крайней мере, теоретически) быть изменена Конгрессом, чтобы обеспечить возможность поэтапных корректировок. Такие изменения могут способствовать переговорам между правообладателями и разработчиками ИИ, способствуя развитию рынков для результатов, созданных ИИ, которые, в свою очередь, могут предложить компенсацию правообладателям.

Такой подход контрастирует с Законом ЕС об искусственном интеллекте, который рискует закрепить нынешнюю динамику между правообладателями и производителями искусственного интеллекта. Положения закона могут предложить более непосредственную защиту правообладателям, но такая жесткость может замедлить развитие взаимовыгодных рынков. Таким образом, хотя правообладатели ЕС в настоящее время могут пользоваться более благоприятными условиями, адаптируемый характер правовой системы США может в конечном итоге привести к более инновационным решениям, которые в долгосрочной перспективе лучше удовлетворят заинтересованные стороны.

Системный риск

Закон об AI предполагает, что GPAI представляет собой некоторую степень «системного риска», определенного в статье 3(65) как:

[A] риск, характерный для высокоэффективных возможностей моделей искусственного интеллекта общего назначения, оказывающий значительное влияние на рынок Союза из-за их охвата или из-за фактического или разумно прогнозируемого негативного воздействия на общественное здравоохранение, безопасность, общественную безопасность, основные права или общества в целом, которые можно распространять в масштабе всей цепочки создания стоимости.

Но вместо давнего понятия «системного риска», используемого в финансовом секторе для обозначения риска каскадных сбоев, определение Закона об искусственном интеллекте больше похоже на « Формула руки в деликтном праве США. Получено из дела Соединенные Штаты против Carroll Towing Co . Формула Хэнда — это средство определения того, действовала ли сторона небрежно, не приняв соответствующие меры предосторожности.

Формула сопоставляет бремя принятия мер предосторожности (B) с вероятностью вреда (P), умноженной на тяжесть потенциального вреда (L). Если бремя мер предосторожности меньше, чем вероятность причинения вреда, умноженная на тяжесть (B

Определение системы ИИ как представляющей «системный риск» основано на оценке вероятности и серьезности потенциальных негативных последствий для общественного здравоохранения, безопасности, фундаментальных прав и общества в целом. Эта оценка, как и формула Хэнда, предполагает баланс факторов, чтобы определить, являются ли риски, создаваемые системой ИИ, приемлемыми или требуют дополнительного вмешательства регулирующих органов. Также, как и формула Хэнда, определение «системного риска», по-видимому, предполагает системы, действующие в больших масштабах, которые могут представлять очень незначительные риски в каждом конкретном случае, но которые совокупно наносят значимый ущерб.

Однако между этими двумя концепциями есть некоторые ключевые различия. Формула Хэнда применяется в деликтном праве в каждом конкретном случае, чтобы определить, действовала ли конкретная сторона небрежно в конкретной ситуации. Напротив, определение «системного риска» в Законе об ИИ представляет собой более широкую нормативную классификацию, которая применяется к целым категориям систем ИИ на основе их потенциала нанесения широкомасштабного вреда. Таким образом, это создает презумпцию риска только там, где действует крупномасштабное GPAI.

Более того, хотя формула Хэнда фокусируется на действиях отдельных сторон, обозначение «системного риска» возлагает на поставщиков ИИ обязанность активно решать и смягчать потенциальные риски, связанные с их системами. Похоже, что это может привести к огромным непредвиденным последствиям, открывая множество возможностей для необоснованного вмешательства регулирующих органов. Как обычно, то, проявится ли в конечном итоге эта угроза вредного регулирования, зависит от того, как будет применяться закон.

Требования Закона об ИИ в отношении авторских прав

Закон об искусственном интеллекте налагает на поставщиков GPAI ряд обязательств, связанных с авторским правом. Как Андрес Гуадамуз из Университета Сассекса примечания в своем анализе:

Основное положение моделей GPAI, касающееся авторских прав, можно найти в статье 53 об обязательствах поставщиков моделей GPAI. Это налагает обязательства по обеспечению прозрачности, которые включают следующее:

  • Составлять и поддерживать в актуальном состоянии техническую документацию по обучению модели. Это должно включать, среди прочего, его цель, потребляемую им вычислительную мощность и подробную информацию о данных, используемых при обучении.
  • Составляйте и обновляйте техническую документацию для поставщиков, внедряющих эту модель. Эта документация должна позволить поставщикам понять ограничения модели, соблюдая при этом коммерческую тайну и другие права интеллектуальной собственности. Он может включать в себя ряд технических данных, включая взаимодействие модели с аппаратным и программным обеспечением, не включенным в саму модель.
  • «ввести в действие политику уважения законодательства Союза об авторском праве, в частности, для выявления и уважения, в том числе с помощью новейших технологий, оговорок к правам, выраженным в соответствии со статьей 4(3) Директивы (ЕС) 2019/790».
  • «составить и опубликовать достаточно подробное резюме о контенте, используемом для обучения модели ИИ общего назначения, в соответствии с шаблоном, предоставленным Управлением ИИ».

По мнению Гуадамуза, особенно актуальным является взаимодействие между исключением для «Интеллектуального анализа текста и данных» (TDM) в Директиве единого цифрового рынка и потенциалом обучения искусственному интеллекту:

Во-первых, требование установить политику уважения авторских прав, по сути, служит напоминанием о необходимости соблюдать существующие законы. Однако что еще более важно, провайдеры обязаны внедрять технологии, позволяющие им соблюдать отказ правообладателей. Это связано с тем, что статья 4 вводит основу для использования технологических инструментов для управления отказами и резервированием прав, что является хорошей новостью для поставщиков таких технологий. Кроме того, теперь совершенно очевидно, что исключения для TDM в Директиве DSM включают обучение ИИ, как это указано в Законе об ИИ. Необходимость разъяснений необходима, поскольку были некоторые сомнения в том, что TDM охватывает обучение ИИ, но его включение в правовую базу, специально посвященную обучению ИИ, предполагает, что исключение TDM действительно распространяется на него.

Это предполагает сложное взаимодействие между производителями GPAI (которым необходимо обучать свои модели на больших массивах текста, изображений, аудио и/или видео); правообладатели (которые будут пользоваться правом отказа в ЕС); и производители технических мер для облегчения отказа.

Более того, требования прозрачности Закона об искусственном интеллекте для производителей GPAI потенциально могут привести к будущим проблемам для производителей, к лучшему или к худшему. Как отмечает Гуадамуз: «Постоянной темой в продолжающихся делах о нарушении авторских прав является использование истцами раскрытия содержания обучения; те, кто раскрывал данные обучения, как правило, подвергались искам».

Еще одна проблема, которую поднимает этот закон, касается вопроса о так называемых «дипфейках», которые особенно хорошо зарекомендовали себя. спорный В Соединенных Штатах. Одна из проблем, высказанных по эту сторону Атлантики, заключается в том, что запрет дипфейков может помешать создателям создавать законные копии изображений людей, которые, хотя и соответствуют техническому определению дипфейка, используются для новых художественных целей, таких как биографические фильмы.

Закон об искусственном интеллекте регулирует регулирование дипфейков посредством положений об обязательствах прозрачности для некоторых систем искусственного интеллекта. Статья 50 требует, чтобы поставщики и развертыватели систем искусственного интеллекта, которые генерируют или манипулируют изображением, аудио или видеоконтентом, раскрывают информацию о том, что контент был создан искусственно или им манипулировали. Это обязательство распространяется на дипфейковый контент, определяемый как:

Созданные или обработанные ИИ изображения, аудио или видеоконтент, которые напоминают существующих людей, объекты, места или другие объекты или события и могут ошибочно показаться человеку подлинными или правдивыми.

Закон предусматривает исключение для контента, который «является частью явно художественного, творческого, сатирического, вымышленного аналогичного произведения или программы». Однако такой контент по-прежнему должен включать раскрытие информации о любых дипфейках, которые присутствуют «надлежащим образом, не препятствующим показу или получению удовольствия от работы».

Это положение примечательно тем, что оно, по-видимому, создает средства для идентификации контента, созданного ИИ, что может иметь последствия для защиты авторских прав такого контента в юрисдикциях, которые налагают ограничения на авторство ИИ на основе требований к автору-человеку. Но неясно, насколько широко будут интерпретироваться «художественные, творческие» и «сатирические» исключения. Почти наверняка существует множество других безобидных вариантов использования дипфейков, которые могут противоречить закону, который, тем не менее, должен быть разрешен.

Последствия для развития GPAI

Как отмечалось ранее, влияние Закона об искусственном интеллекте на GPAI будет во многом зависеть от того, как он будет реализован. На данный момент мало что можно сказать с уверенностью относительно того, какое влияние окажут положения GPAI на производителей крупных моделей. Однако, вероятно, справедливо предположить, что между производителями возникнет серьезная борьба, пытаясь обеспечить соблюдение механизмов соблюдения требований.

Основываясь на опыте Общего регламента защиты данных (GDPR), существуют опасения, что категория «системный риск» может стать для регулирующих органов важным рычагом вмешательства в то, как такие компании, как Mistral и Anthropic, разрабатывают и выпускают свои продукты. В идеале, развертывание ИИ не должно блокироваться в ЕС при отсутствии доказательств ощутимого вреда, поскольку европейские граждане выиграют от разработки и доступа к передовым инструментам.

В контексте США освобождение от «добросовестного использования» закона об авторском праве стало яблоко раздора в растущем объеме судебных разбирательств. я остаюсь скептический что защита добросовестного использования настолько ясна, насколько обвиняемые в настоящее время полагают. Как указано в Международном центре права и экономики (ICLE) подчинение По данным Бюро регистрации авторских прав США, действующее законодательство США об авторском праве может не поддерживать использование материалов, защищенных авторским правом, для обучения систем искусственного интеллекта в рамках добросовестного использования.

Однако это не означает, что авторские права должен стоят на пути развития ИИ. Существует широкая золотая середина законодательных реформ, которые Конгресс мог бы изучить, чтобы лучше сбалансировать защиту интересов правообладателей и способствовать развитию GPAI. Сделает ли он это, остается открытым вопросом.

Как было предложено в нашем заявлении Бюро регистрации авторских прав, лучший путь вперед — по обе стороны Атлантики — заключается в содействии переговорам между правообладателями и производителями ИИ для создания нового типа рынка. Действительно, чрезмерное внимание к использованию работ, защищенных авторским правом, в обучении ИИ может в конечном итоге просто привести к непродуктивным переговорам.

Хотя вполне возможно, что закон об авторском праве США будет изменен или переосмыслен, чтобы обеспечить большую гибкость производителям ИИ, Закон об ИИ, по-видимому, создаст более сильную защиту для правообладателей в защите своих произведений от использования GPAI. Можно надеяться, что это также обеспечит достаточную гибкость для облегчения переговоров между сторонами. Если он потерпит неудачу в этом отношении, ЕС рискует помешать развитию искусственного интеллекта в своих странах…