Twitter пережил много взлетов и падений с тех пор, как Илон Маск закрыл сделку по приобретению компании в конце октября и почти сразу же приступил к реализации своих инициатив по «реформированию» операций платформы.

Одна из историй, которая несколько затерялась в последовавшем за этим хаосе, заключается в том, что за короткое время под руководством Маска Twitter добился значительных успехов — по крайней мере, на некоторых полях — против публикации материалов о сексуальном насилии над детьми (CSAM). удаление основных хэштегов которые использовались, чтобы поделиться им, создать возможность прямой отчетности и удалить основных поставщиков. С другой стороны, из-за значительного сокращения штата сотрудников Твиттера — как добровольного, так и вынужденного — сейчас осталось очень мало рецензентов, способных решить эту проблему.

Иммунитет в соответствии с разделом 230 в настоящее время защищает онлайн-посредников от большинства гражданских исков в отношении CSAM (небольшое исключение сделано в соответствии с разделом 1595 Закона о защите жертв торговли людьми). В то время как федеральное правительство может предъявить уголовные обвинения, если оно считает, что онлайн-посредники нарушают федеральные законы CSAM, и некоторые узкие уголовные иски штата могут быть предъявлены в соответствии с федеральным законом, частные стороны в основном остаются без возможности найти компенсацию самостоятельно в судах. .

Это, среди других причин, является причиной того, что был толчок к изменению иммунитета по статье 230. Наше предложение (вместе с соавтором Джеффри Манном) предполагает, что онлайн-посредники должны иметь разумную обязанность по удалению нелегального контента. Но это по-прежнему требует тщательного обдумывания того, что влечет за собой разумная обязанность проявлять осторожность.

Например, одним из самых громких шагов, предпринятых Twitter после приобретения Маска, было удаление основных хэштегов распространения CSAM. Хотя это на какое-то время ограничило видимость CSAM, некоторые эксперты говорят, что на самом деле это не решает проблему, поскольку появятся новые хэштеги. Итак, требует ли стандарт разумности периодического удаления основных хэштегов? Возможно, так и было бы. Похоже, это был относительно недорогой способ уменьшить доступ к таким материалам, и теоретически его можно было бы включить в более крупную программу, которая использует автоматическое обнаружение для поиска и удаления будущих хэштегов.

Конечно, он не будет совершенным и будет зависеть от динамики Whac-A-Mole. Но актуальный вопрос заключается не в том, является ли это идеальным решением, а в том, дает ли оно значительную выгоду по сравнению со своей стоимостью, так что его следует рассматривать как юридически обоснованную меру, которую платформы должны широко внедрять.

С другой стороны, Twitter потерял такое большое количество сотрудников, что потенциально у него больше нет достаточного количества сотрудников для проведения важной проверки CSAM. До тех пор, пока Твиттер разрешает наготу для взрослых, а алгоритмы не могут эффективно различать разные типы наготы, рецензенты остаются важными. Стандарт разумности также может потребовать достаточного количества персонала и финансирования, предназначенных для проверки должностей для CSAM.

Но что значит для платформы вести себя «разумно»?

Платформы должны вести себя «разумно»

Переосмысление безопасной гавани платформ от ответственности, регулируемой стандартом «разумности», предлагает способ более эффективно преодолевать сложности этих компромиссов, не прибегая к бинарной системе иммунитета или полной ответственности, которая обычно характерна для обсуждений реформы Раздела 230.

Может случиться так, что, учитывая реальность того, что машины не могут отличить «хорошую» и «плохую» наготу, для открытой платформы совершенно неразумно вообще разрешать любую наготу, если она работает с таким уровнем персонала, который Маск, кажется, предпочитает Twitter.

Рассмотрим ситуацию, с которой MindGeek столкнулся пару лет назад. Финансовые провайдеры, в том числе PayPal и Visa, оказали на нее давление, чтобы они избавились от CSAM и несогласованной порнографии, которые появлялись на ее веб-сайтах. В ответ они удалили более 80% подозреваемого незаконного контента и потребовали более тщательной проверки подлинности для публикации.

Несмотря на усилия по очистке сервиса, против MindGeek и Visa был подан иск жертвами, которые утверждали, что компания, выпускающая кредитные карты, была сознательным заговорщиком для обработки платежей сайтам MindGeek, когда они поставляли детскую порнографию. Примечательно, что вопросы, связанные с разделом 230, были отклонены на раннем этапе дела, но оставшиеся претензии, основанные на Законе об организациях, находящихся под влиянием рэкетиров и коррумпированных организациях (RICO) и Законе о защите жертв торговли людьми (TVPA), содержали элементы, которые поддерживают оценку поведения онлайн-посредников. , включая поставщиков платежных услуг, которые поддерживают онлайн-сервисы, через призму разумности.

В нашем amicus мы подчеркнули более широкие политические последствия неспособности должным образом разграничить границы ответственности. Короче говоря, мы подчеркивали, что лучше всего поощрять сдерживание, возлагая ответственность за контроль на сторону, которая наиболее внимательно может следить за ситуацией —то есть , MindGeek, а не Visa. Исходя из этого, мы считаем, что должным образом настроенный стандарт разумности должен быть в состоянии исключить такого рода расследования на ранних стадиях судебного разбирательства, если есть веские доказательства того, что посредник вел себя разумно в данных обстоятельствах.

Мы считаем, что в данном случае суд должен был серьезно отнестись к тому факту, что оператору платежей необходимо сбалансировать ряд конкурирующих требований — с юридической, экономической и моральной точек зрения — таким образом, чтобы он мог выполнять свои необходимые просоциальные функции. Здесь Visa должна была сбалансировать свою роль, с одной стороны, в качестве нейтрального посредника, отвечающего за обработку миллионов ежедневных транзакций, со своими интересами, чтобы гарантировать, что она не будет способствовать незаконному поведению. Но он также работал, по сути, под завесой невежества: вся имевшаяся у него информация была получена из новостных сообщений, поскольку он не принимал непосредственного участия и не имел особого представления о работе бизнеса MindGeek.

Как мы подчеркивали в нашем документе об ответственности посредников, действительно есть основания опасаться, что изменения в политике ответственности посредников не вызовут поток разорительных судебных разбирательств. Вместо этого должна быть определенная возможность определить на ранних стадиях судебного разбирательства, разумно ли вел себя ответчик в данных обстоятельствах. В случае с MindGeek мы полагали, что это сделала Visa.

По сути, большая часть этого подхода к ответственности посредников сводится к нахождению социально и экономически эффективных разделительных линий, которые могут широко разграничить, когда должна налагаться ответственность. Например, если Visa несет ответственность как сообщник в предположительно незаконном предприятии MindGeek за предоставление платежной сети, которую MindGeek использует в силу своих отношений с другими посредниками (то есть , банки, которые фактически принимают и обрабатывают платежи по кредитным картам), почему почтовое отделение США также не несет ответственности за предоставление услуг по доставке посылок, которые позволяют MindGeek работать? Или его подрядчик по техническому обслуживанию для уборки и обслуживания своих офисов?

Twitter неявно участвовал в такого рода анализе, когда рассматривал возможность стать конкурентом OnlyFans. Несмотря на наличие значительных ресурсов — как алгоритмических, так и человеческих — внутренняя команда Twitter определила, что они не могут «точно выявлять сексуальную эксплуатацию детей и наготу без согласия в масштабе». В результате они отказались от проекта. Точно так же Tumblr пытался внести множество изменений, в том числе убрать хэштеги CSAM, прежде чем, наконец, сдаться и удалить все порнографические материалы, чтобы остаться в App Store для iOS. По сути, эти фирмы продемонстрировали способность взвешивать затраты и выгоды способами, полностью совместимыми с анализом разумности.

Если снова подумать о ситуации с MindGeek, может случиться так, что MindGeek повел себя неразумно. Некоторые из сайтов MindGeek поощряли загрузку порнографии, созданной пользователями. Если у MindGeek были те же ограничения в обнаружении «хорошей» и «плохой» порнографии (что вполне вероятно), возможно, компания вела себя безрассудно в течение многих лет и ужесточила процедуры проверки только после того, как ее поймали. Если это правда, то это поведение не должно защищаться законом с помощью щита ответственности, поскольку оно явно неразумно.

Apple иногда высмеивают как недобросовестного привратника в своем App Store. Но, по иронии судьбы, Apple сама пошла на сложный компромисс между безопасностью данных и конфиденциальностью — с помощью шифрования, с одной стороны, и проверки устройств на наличие материалов CSAM, с другой. Приоритет шифрования перед сканированием устройств (особенно фотографий и сообщений) для CSAM — это выбор, который может привести к распространению большего количества CSAM. Но выбор, опять же, сложный: насколько необходима модерация и как сбалансировать такие затраты с другими ценностями, важными для пользователей, такими как конфиденциальность для подавляющего большинства пользователей, не нарушающих правила?

Как всегда, эти вопросы сложны и требуют компромиссов. Но очевидно, что онлайн-посредники могут и должны сделать больше для удаления CSAM.

Но что такое «разумный»? И как мы туда попадем?

Юридический вопрос на миллион долларов заключается в том, что считать «разумным»? Нам известен тот факт, что, особенно когда мы имеем дело с онлайн-платформами, которые имеют дело с миллионами пользователей в день, существует значительная площадь поверхности, подверженной судебным разбирательствам из-за потенциально незаконного поведения пользователей. Таким образом, это не тот случай, по крайней мере, в обозримом будущем, что нам нужно распахивать ворота полномасштабного процесса общего права для решения вопросов ответственности посредников. Вместо этого необходим поэтапный подход, который позволит судам заняться разбором этих сложных вопросов и созданием свода принципов, которые, с одной стороны, побуждают платформы делать больше для контроля незаконного контента в своих сервисах, а с другой стороны, препятствует необоснованным судебным искам со стороны коллегии истцов.

Одно из наших предложений по реформе Раздела 230 заключается в том, чтобы орган с участием многих заинтересованных сторон под надзором экспертного агентства, такого как Федеральная торговая комиссия или Национальный институт стандартов и технологий, разработал политику сертифицированной модерации. Это потребует участия онлайн-посредников, работающих вместе с созывающим федеральным экспертным агентством, для разработки набора передовых методов удаления CSAM, включая продумывание анализа затрат и выгод большей модерации — человеческой или алгоритмической — или даже полного удаления наготы и порнографического контента.

Соблюдение этих стандартов должно в большинстве случаев предотвращать судебные разбирательства с поставщиками онлайн-услуг на ранней стадии. Если следовать таким передовым методам, ответчик может указать на свою политику модерации как на «подтвержденный ответ» на любую жалобу, в которой утверждается основание для иска, связанного с пользовательским контентом. Соответствующие методы заслуживают закрытия дела, создавая безопасную гавань, аналогичную той, которая в настоящее время действует в разделе 230.

В ходе судебного разбирательства после того, как ответчик ответит на жалобу с помощью своей сертифицированной политики модерации, бремя перейдет к истцу, который должен представить достаточные доказательства того, что сертифицированные стандарты на самом деле не соблюдались. Такие доказательства должны быть чем-то большим, чем просто сама вещь говорит ; этого должно быть достаточно, чтобы продемонстрировать, что поставщик онлайн-услуг должен был знать о вреде или потенциальном вреде, что у него была возможность исправить или предотвратить его, но он этого не сделал. Такой иск должен будет соответствовать повышенным требованиям к состязательным бумагам, как и в случае мошенничества, требующим конкретности. И периодически орган, контролирующий развитие этого процесса, вносил изменения в стандарты передовой практики на основе дел, переданных в суды.

Провайдеры онлайн-услуг не должны быть идеальными в своих решениях по модерации контента, но они должны вести себя разумно. Надлежащим образом разработанный стандарт должен быть гибким и учитывать масштаб платформы, характер и размер ее пользовательской базы, а также затраты на соблюдение требований, среди прочих соображений. Что подходит для YouTube,…