Разработка четкой политики и руководящих принципов использования искусственного интеллекта (ИИ) в журналистике необходима для обеспечения того, чтобы средства массовой информации оставались приверженными этическим и прозрачным практикам.
Недавние разработки и более широкая интеграция искусственного интеллекта преобразовали глобальные отрасли, и журналистика не стала исключением. Инструменты искусственного интеллекта открывают новую эру в журналистике, где ключевыми факторами являются скорость, разнообразие контента и эффективность.
От автоматизации производства новостей до создания новостных статей на основе структурированных данных — ИИ помог журналистам сэкономить время и ресурсы. Это также облегчило создание большего количества контента с использованием ограниченных ресурсов.
Однако это также вызвало этические и редакционные проблемы в то время, когда доверие общества к СМИ составляет около 40 процентов, согласно отчету Института изучения журналистики Reuters.
Будущее влияние ИИ неясно, но оно потенциально может оказать глубокое влияние на то, как создается и потребляется журналистика. Исследования показывают, что оно распределено неравномерно, хотя уже составляет значительную часть журналистики.
«Реальность и потенциал искусственного интеллекта, машинного обучения и обработки данных заключаются в том, чтобы дать журналистам новые возможности для открытий, творчества и взаимодействия», — говорит Чарли Беккет, возглавлявший исследование.
«Алгоритмы будут питать системы. Но человеческий подход, проницательность и суждение журналиста будут иметь первостепенное значение. Сможет ли новостная индустрия воспользоваться этой возможностью? Какие экономические, этические и редакционные угрозы также несут технологии ИИ?» — спрашивает Беккет в предисловии к исследованию.
Попытки регулирования
10 ноября 2023 года «Репортеры без границ» (RSF) и 16 партнерских организаций опубликовали Парижскую хартию по искусственному интеллекту и журналистике в контексте Парижского форума мира. Работа над Хартией стартовала в июле 2023 года.
Хартия определяет десять ключевых принципов защиты целостности информации и сохранения социальной роли журналистики в ответ на «беспорядок», который ИИ создал на новостной и информационной арене.
Основные принципы гласят, что этика должна определять технологический выбор в средствах массовой информации; человеческая деятельность должна оставаться центральной в редакционных решениях; средства массовой информации должны помочь обществу уверенно различать подлинный и синтетический контент; СМИ должны участвовать в глобальном управлении ИИ и защищать жизнеспособность журналистики при переговорах с технологическими компаниями.
Мария Ресса, лауреат Нобелевской премии мира, возглавлявшая комиссию, созданную RSF по этому вопросу, утверждает, что «технологические инновации по своей сути не ведут к прогрессу. Следовательно, чтобы по-настоящему принести пользу человечеству, оно должно руководствоваться этикой».
Официальный этический кодекс Общества профессиональных журналистов (SPJ) содержит четыре правила: искать правду и сообщать о ней; минимизировать вред; действовать самостоятельно; быть подотчетным и прозрачным. Все они применимы и к использованию ИИ в журналистике.
Общий консенсус заключается в том, что ИИ можно использовать в журналистике, если он применяется в умеренных количествах и подвергается проверке фактов людьми. Более того, журналистам, использующим ИИ, рекомендуется открыто говорить о его роли в своей работе.
Необходимы дополнительные исследования
Чтобы решить проблемы, которые ИИ создает для журналистики, законодательство должно будет предложить четкие определения категорий ИИ и конкретные способы раскрытия информации для каждой из них, утверждается в статье Центра новостей, технологий и инноваций (CNTI).
Новые инструменты генеративного искусственного интеллекта (GAI), такие как ChatGPT и DALL-E, хотя и предлагают новые способы оптимизации производства новостей, также рискуют сократить поисковый трафик на новостные сайты и поднять вопросы о нарушении авторских прав.
Критики утверждают, что роль ГАИ в создании контента часто непрозрачна, и некоторые издатели добиваются правовой защиты от несанкционированного использования их контента для обучения ИИ.
В статье также упоминаются пробелы в исследованиях в понимании роли ИИ в журналистике и того, как аудитория воспринимает контент, созданный ИИ, часто считая его менее предвзятым. Большая часть текущих исследований носит теоретический характер и указывает на необходимость большего количества исследований, основанных на данных, особенно в незападном контексте.
В статье CNTI освещаются различные подходы стран, при этом законодательство отстает от развития ИИ. Некоторые страны, такие как ЕС, отдают приоритет конфиденциальности данных, в то время как другие, например Китай, уделяют особое внимание государственному контролю.
Отсутствие консенсуса по регулированию ИИ усложняет глобальные соглашения. Эффективная политика должна учитывать сложность самого ИИ, избегать расплывчатых определений и вовлекать различные заинтересованные стороны, особенно те, которые больше всего страдают от ИИ, заключает CNTI.
[Edited By Brian Maguire | Euractiv’s Advocacy Lab ]