В связи с недавним решением Третьего окружного апелляционного суда США по делу Андерсон против TikTok пришло время вернуться к взаимодействию между правом Первой поправки на редакционное усмотрение, иммунитетом по разделу 230 и безопасностью детей в Интернете в контексте алгоритмов.

Как уже неоднократно отмечалось, использование алгоритмических рекомендаций в сети распространено повсеместно. Потенциальный вред для детей, получающих плохие рекомендации, также значителен, как и основные факты ТикТок случай показать. Но есть и противоположные проблемы, связанные с речью и благополучием потребителей, которые возникают, если алгоритмические рекомендации не защищены законом.

По иронии судьбы, поскольку Третий округ прав в отношении алгоритмических рекомендаций, представляющих собой высказывание первой стороны (и, следовательно, не получающих иммунитета в соответствии с разделом 230), это может означать, что онлайн-платформы, использующие алгоритмические рекомендации, имеют сильную защиту Первой поправки против претензий об ответственности за качество продукции.

TikTok против Андерсона

Факты, заявленные в ТикТок случай прост и ужасен. 10-летняя девочка умерла от самоудушья из-за попытки пройти так называемый «Вызов затемнения» после просмотра видео вирусной «игры с удушанием», которое ей предоставила страница TikTok For You Page (FYP). Вопрос для суда заключался в том, могут ли быть предъявлены иски об ответственности за продукцию (как строгая ответственность, так и халатность) против TikTok в свете иммунитета по разделу 230. В частности, утверждалось, что TikTok знал о конкурсе, позволял пользователям публиковать видео с их участием и что его алгоритм предоставлял видео с конкурсом несовершеннолетним FYP.

Окружной суд первоначально отклонил жалобу на основании иммунитета TikTok по разделу 230 как интерактивного компьютерного сервиса. Но апелляционная коллегия в соответствующей части отменила решение, вернув дело на рассмотрение по этим пунктам. В кратком заключении Третьего округа по существу утверждалось, что после решения Верховного суда США по делу NetChoice случаи редакционные решения о том, что продвигается с помощью алгоритмов платформы социальных сетей, теперь следует считать речью самой платформы:

Суд постановил, что алгоритм платформы, отражающий «решения редакции» о «составлении речи третьих лиц так, как она хочет», является собственным «выразительным продуктом» платформы и, следовательно, защищен Первой поправкой…

Таким образом, аргументация заключается в том, что для целей раздела 230 такие алгоритмические рекомендации должны быть выразительными продуктами платформ социальных сетей, то есть они не получают иммунитета:

Учитывая замечания Верховного суда о том, что платформы используют защищенную первую поправку речь, когда они курируют компиляции чужого контента с помощью своих выразительных алгоритмов […] следовательно, это также равнозначно выступлению первой стороны согласно § 230.

Таким образом, суд пришел к выводу:

Здесь, как утверждается, алгоритм FYP TikTok»[d]эйцид[es] на речи третьих лиц, которая будет включена в компиляцию или исключена из нее, а затем систематизирована[es] и представить[s] включенные элементы» в FYP пользователей. NetChoice, 144 S. Ct. на 2402. Соответственно, алгоритм TikTok, который рекомендовал Найле конкурс Blackout Challenge в ее FYP, был собственной «выразительной деятельностью» TikTok, т. е. и, следовательно, его собственной речью. Такое высказывание первой стороны является основой утверждений Андерсона. См. приложение. 39 (Compl. ¶ 107(k), (o)) (утверждается, среди прочего, что алгоритм FYP TikTok был разработан неправильно, поскольку он «рекомендовал» и «продвигал» конкурс Blackout Challenge). 11 Раздел 230 иммунизирует только информацию, «предоставленную другим[,]47 USC § 230(c)(1), и здесь, поскольку информация, которая составляет основу иска Андерсона, т. е. рекомендации TikTok через его алгоритм FYP, является собственной выразительной деятельностью TikTok, § 230 не запрещает претензии Андерсона.

Стоит отметить, что словосочетание «первая речь» нигде в тексте не используется. NetChoice мнение большинства или согласие. Это важно, поскольку по мнению большинства обсуждение права на редакционное усмотрение касается компиляции и курирования высказываний третьих лиц. Это правда, что большинство описывает результат как «выразительный продукт», когда речь идет о защите каналов социальных сетей Первой поправкой, но ничто не указывает на то, что это делает это собственной речью платформы социальных сетей для целей Раздела 230.

Фактически, Третий окружной суд проигнорировал тот факт, что курирование само по себе является частью определения интерактивного компьютерного сервиса. Раздел 230(f)(2) определяет интерактивную компьютерную услугу как «любую информационную услугу, систему или доступ к поставщику программного обеспечения который обеспечивает или разрешает доступ нескольких пользователей к компьютерному серверу». (курсив добавлен). В разделе 230(f)(4) термин «поставщик программного обеспечения доступа» определяется как:

поставщик программного обеспечения. . . или активирующие инструменты, которые выполняют одно или несколько из следующих действий:

(А) фильтр, сеткаразрешить или запретить контент;

(Б) выбирать, выбиратьанализировать или дайджест контента; или

(C) передавать, получать, отображать, пересылать, кэшировать, искать, подмножество, организовать, реорганизоватьили перевести контент».

В соответствии с разделом 230 платформы социальных сетей действуют как поставщики программного обеспечения для доступа и, следовательно, как «интерактивная компьютерная служба», когда они фильтруют, проверяют, выбирают, организуют или реорганизуют контент. Платформам социальных сетей (или другим онлайн-платформам, использующим алгоритмические рекомендации) не было бы смысла привлекать к ответственности за предоставление рекомендаций, если именно это в первую очередь делает их интерактивным компьютерным сервисом.

Вся история раздела 230 подтверждает эту точку зрения. Как гласит история, цель этого положения заключалась в том, чтобы защитить возможность ранних онлайн-чатов удалять часть контента, не неся при этом ответственности за то, что осталось. Другими словами, статья 230 была предназначена для дальнейшей поддержки права на редакционную свободу без создания онлайн-платформ, которые размещают высказывания в таких издателях, как газеты, для целей гражданских исков.

В целом, раздел 230 прямо защищает то же право на редакционное усмотрение, что и Первая поправка.

Ответственность за продукцию за алгоритмические рекомендации и Первую поправку

Каким бы ошибочным ни было мнение Третьего округа с точки зрения текста и истории раздела 230 (более подробную информацию по этой теме см. в кратком изложении, к которому присоединились ученые Международного центра права и экономики Гас Гурвиц и Джеффри Манн в Гонсалес против Google здесь ), этот случай более интересен тем, что он поддерживает сильную версию права на редакционное усмотрение, которая будет рассматривать алгоритмические рекомендации как мнение первой стороны онлайн-платформ. Если это так, то суду, скорее всего, придется признать, что иски об ответственности за продукцию связаны с речью TikTok, а не с его поведением.

Результат этой линии рассуждений, скорее всего, поставит под угрозу основные показатели обязательств по продуктам в этом случае.

Верховный суд провел в Снайдер против Фелпса что: «Пункт Первой поправки о свободе слова… может служить защитой в государственных деликтных исках». Там Суд ограничил применение иска об умышленном причинении эмоционального страдания только вопросами частного характера. Аналогично, в Нью-Йорк Таймс против Салливана и его потомство Суд ужесточил требования к искам о диффамации при работе с общественными деятелями. Во всех этих делах Суд руководствовался опасениями Первой поправки, ограничивающими сферу действия государственного деликтного права. Вполне вероятно, что даже за пределами иммунитета по разделу 230 претензии по ответственности за продукцию будут аналогичным образом ограничены, когда они применяются к алгоритмическим рекомендациям, если такие рекомендации «представляют собой речь первой стороны платформ».

Как я уже отмечал ранее в предыдущем почта Одно из основополагающих мнений о взаимодействии исков об ответственности за качество продукции и Первой поправки вынесено в заключении 9-го окружного апелляционного суда США в 1991 г. Винтер против GP Putman’s Sons . Там американскому издателю, который «ни не писал, ни редактировал книгу», предъявили иск два истца, которые употребляли в пищу лесные грибы, от которых они серьезно заболели, после того, как полагались на информацию из Энциклопедия грибов . Девятый округ отклонил как строгую ответственность за качество продукции, так и иски к издателю, основанные на халатности, отчасти по причинам Первой поправки.

Суд в Зима определил, что «[t]Цели, которым служит закон об ответственности за качество продукции, также сосредоточены на материальном мире и не принимают во внимание уникальные характеристики идей и их выражения». Хотя затраты на строгую ответственность являются терпимыми применительно к продукции»,[t]они гораздо менее тревожны, чем перспектива того, что мы можем быть лишены новейших идей и теорий». Апелляционный суд отметил, что представление идей в книге сильно отличается от аэронавигационных карт, компасов или даже компьютерного программного обеспечения, которое не выполняет того, для чего оно предназначено.

В сноске суд обнаружил ряд случаев отказа применять строгую ответственность за качество продукции к информации в книгах и журналах. Интересно, что сюда входило случай где читатель Хастлер Журнал умер во время попытки «аутоэротического удушья» после прочтения статьи под названием «Оргазм смерти», в которой описывался этот опыт.

Недавние случаи продолжают эту тенденцию. Федеральный суд в Estate of BH против Netflix отклонил иск о строгой ответственности против Netflix, предъявленный ребенку, который покончил жизнь самоубийством после просмотра сериала Netflix 13 причин почему в котором заметную роль в сюжете играет подростковое самоубийство. Они цитировали Зима за предложение, что «[t]здесь нет строгой ответственности за книги, фильмы или другие средства массовой информации».

Суд отклонил попытки истцов оспорить это, заявив, что Netflix должен был предусмотреть гарантии, препятствующие просмотру сериала несовершеннолетними, заявив, что попытки «истцов дистанцировать претензии от содержания шоу не убеждают». Без содержания не было бы никаких претензий».

Аналогично, в Роджерс против Кристи Третий окружной суд постановил, что «алгоритм» определения выпуска до суда не является продуктом, на который распространяется строгая ответственность за качество продукции, поскольку «информация, руководства, идеи и рекомендации» не являются «продуктом».[s]согласно Третьей редакции, как по определению, так и потому, что распространение строгой ответственности за распространение идей вызовет серьезные опасения по поводу Первой поправки».

Здесь TikTok находится в аналогичном положении с издателем в Зима или Netflix с точки зрения использования его алгоритмических рекомендаций для FYP пользователей якобы для продвижения «Blackout Challenge». Содержание уродливо и привело к таким же трагическим результатам, как и то, что произошло в Хастлер и дела Netflix. Но, как продолжают находить суды, нет никаких оснований считать, что распространение идей, даже посредством алгоритмических рекомендаций, подлежит строгой ответственности в соответствии с Первой поправкой.

Зима также исследовал возможность халатности, исходя из теории, что издатель обязан заботиться о своих читателях, чтобы убедиться, что информация была точной. Но 9-й округ также отклонил это, снова заявив, что: «[g]Руководствуясь Первой поправкой и ценностями, воплощенными в ней, мы отказываемся распространять ответственность в соответствии с этой теорией на идеи и выражения, содержащиеся в книге». Суд установил, что у издателя не было неотъемлемой обязанности расследовать и обеспечивать точность содержания его книги, если только он не сделал каких-либо заявлений о том, что он это сделал. Аналогично, в Нетфликс Суд собрал ряд дел по утверждению о том, что создатели и издатели контента не несут ответственности перед своими потребителями за безопасность выражаемых или распространяемых идей.

Здесь те же принципы, вероятно, будут применяться к иску, основанному на халатности. TikTok, вероятно, не будет нести независимую обязанность обеспечивать безопасность видео, рекомендованных его алгоритмом, для зрителей. Но если бы истец мог доказать, что TikTok сделал…