Разработка четкой политики и руководящих принципов использования искусственного интеллекта (ИИ) в журналистике необходима для обеспечения того, чтобы средства массовой информации оставались приверженными этическим и прозрачным практикам.

Недавние разработки и более широкая интеграция искусственного интеллекта преобразовали глобальные отрасли, и журналистика не стала исключением. Инструменты искусственного интеллекта открывают новую эру в журналистике, где ключевыми факторами являются скорость, разнообразие контента и эффективность.

От автоматизации производства новостей до создания новостных статей на основе структурированных данных — ИИ помог журналистам сэкономить время и ресурсы. Это также облегчило создание большего количества контента с использованием ограниченных ресурсов.

Однако это также вызвало этические и редакционные проблемы в то время, когда доверие общества к СМИ составляет около 40 процентов, согласно отчету Института изучения журналистики Reuters.

Будущее влияние ИИ неясно, но оно потенциально может оказать глубокое влияние на то, как создается и потребляется журналистика. Исследования показывают, что оно распределено неравномерно, хотя уже составляет значительную часть журналистики.

«Реальность и потенциал искусственного интеллекта, машинного обучения и обработки данных заключаются в том, чтобы дать журналистам новые возможности для открытий, творчества и взаимодействия», — говорит Чарли Беккет, возглавлявший исследование.

«Алгоритмы будут питать системы. Но человеческий подход, проницательность и суждение журналиста будут иметь первостепенное значение. Сможет ли новостная индустрия воспользоваться этой возможностью? Какие экономические, этические и редакционные угрозы также несут технологии ИИ?» — спрашивает Беккет в предисловии к исследованию.

Попытки регулирования

10 ноября 2023 года «Репортеры без границ» (RSF) и 16 партнерских организаций опубликовали Парижскую хартию по искусственному интеллекту и журналистике в контексте Парижского форума мира. Работа над Хартией стартовала в июле 2023 года.

Хартия определяет десять ключевых принципов защиты целостности информации и сохранения социальной роли журналистики в ответ на «беспорядок», который ИИ создал на новостной и информационной арене.

Основные принципы гласят, что этика должна определять технологический выбор в средствах массовой информации; человеческая деятельность должна оставаться центральной в редакционных решениях; средства массовой информации должны помочь обществу уверенно различать подлинный и синтетический контент; СМИ должны участвовать в глобальном управлении ИИ и защищать жизнеспособность журналистики при переговорах с технологическими компаниями.

Мария Ресса, лауреат Нобелевской премии мира, возглавлявшая комиссию, созданную RSF по этому вопросу, утверждает, что «технологические инновации по своей сути не ведут к прогрессу. Следовательно, чтобы по-настоящему принести пользу человечеству, оно должно руководствоваться этикой».

Официальный этический кодекс Общества профессиональных журналистов (SPJ) содержит четыре правила: искать правду и сообщать о ней; минимизировать вред; действовать самостоятельно; быть подотчетным и прозрачным. Все они применимы и к использованию ИИ в журналистике.

Общий консенсус заключается в том, что ИИ можно использовать в журналистике, если он применяется в умеренных количествах и подвергается проверке фактов людьми. Более того, журналистам, использующим ИИ, рекомендуется открыто говорить о его роли в своей работе.

Необходимы дополнительные исследования

Чтобы решить проблемы, которые ИИ создает для журналистики, законодательство должно будет предложить четкие определения категорий ИИ и конкретные способы раскрытия информации для каждой из них, утверждается в статье Центра новостей, технологий и инноваций (CNTI).

Новые инструменты генеративного искусственного интеллекта (GAI), такие как ChatGPT и DALL-E, хотя и предлагают новые способы оптимизации производства новостей, также рискуют сократить поисковый трафик на новостные сайты и поднять вопросы о нарушении авторских прав.

Критики утверждают, что роль ГАИ в создании контента часто непрозрачна, и некоторые издатели добиваются правовой защиты от несанкционированного использования их контента для обучения ИИ.

В статье также упоминаются пробелы в исследованиях в понимании роли ИИ в журналистике и того, как аудитория воспринимает контент, созданный ИИ, часто считая его менее предвзятым. Большая часть текущих исследований носит теоретический характер и указывает на необходимость большего количества исследований, основанных на данных, особенно в незападном контексте.

В статье CNTI освещаются различные подходы стран, при этом законодательство отстает от развития ИИ. Некоторые страны, такие как ЕС, отдают приоритет конфиденциальности данных, в то время как другие, например Китай, уделяют особое внимание государственному контролю.

Отсутствие консенсуса по регулированию ИИ усложняет глобальные соглашения. Эффективная политика должна учитывать сложность самого ИИ, избегать расплывчатых определений и вовлекать различные заинтересованные стороны, особенно те, которые больше всего страдают от ИИ, заключает CNTI.

[Edited By Brian Maguire | Euractiv’s Advocacy Lab ]