Представьте себе журналистов, ведущих себя как создатели контента, и ознакомьтесь с такими понятиями, как «AEO» (оптимизация системы ответов), «жидкий контент» или «цифровое происхождение», ведь именно так могут выглядеть новости и журналистика в 2026 году, согласно данным Института журналистики Reuters.

Недавно опубликованный доклад Института «Тенденции и прогнозы журналистики, медиа и технологий» представляет всестороннюю картину того, как лидеры новостных СМИ по всему миру видят вызовы и возможности, с которыми сталкивается отрасль, на основе опроса 280 топ-менеджеров из 51 страны.

Центральная тема — быстрая трансформация того, как аудитория находит и потребляет новости. Традиционный поисковый трафик резко сокращается, поскольку «системы ответов» на базе генеративного ИИ предоставляют резюме напрямую пользователям, что заставляет издателей ожидать снижения более чем на 40 процентов в течение следующих трёх лет.

Рост экономики создателей и контента, ориентированного на личность, также представляет собой как возможность, так и угрозу. Многие редакции поощряют журналистов строить личные бренды и использовать подходы в стиле создателя, даже опасаясь, что независимые платформы могут увлечь таланты.

Стресс-тест

Эта ускоряющаяся среда «нулевого клика» новостей, в которой аудитория потребляет информацию, так и не сталкиваясь с исходным источником, вызывает у издателей знакомые опасения по поводу трафика и доходов. Для общества это поднимает более глубокий вопрос: что происходит с подотчётностью, когда журналистика потребляется фрагментами?

По словам Ника Ньюмана, старшего научного сотрудника Института журналистики Reuters, последствия этого изменения для доверия очень значительны.

«Когда люди получают доступ к ‘кучам информации’ в чат-ботах ИИ или фрагментах социальных сетей, они часто теряют полную картину [and the narrative that a well-structured report can bring]», — говорит он Euractiv.

Фрагментация, по мнению Ньюмана, делает не только упрощение сложных историй. Она разрушает сигналы, которые помогают зрителям оценивать надёжность изначально. «Вопрос происхождения тоже размыт. Все новости выглядят одинаково, поэтому меньше визуальных подсказок, показывающих, что какая-то информация надёжнее других.»

В традиционной журналистике бренд, формат и редакционный контекст выступали в роли маркеров подотчетности. Читатели знали, кто подготовил журналистскую статью и кого можно было привлечь к ответственности, если она была ошибочной. В средах, опосредованных ИИ, эти сигналы постепенно исчезают.

«В целом, и со временем, мы видим, что связь между брендами и подотчётностью, которую они обеспечивают за свою журналистику, ослабевает», — говорит Ньюман.

Это ослабление распределено неравномерно. Исследования Института Reuters показывают, что молодая аудитория и другие труднодоступные группы чаще полагаются на агрегацию платформ и алгоритмическое обнаружение, а не на прямые визиты в новостные источники.

«Если чат-боты на базе ИИ будут широко распространены в новостях — а это не гарантировано — эти проблемы, скорее всего, усугубятся», — предупреждает Ньюман.

Автоматизация повсюду

Внутри редакций внедрение ИИ теперь широко распространено. Отчёт демонстрирует почти повсеместные эксперименты с инструментами ИИ — от транскрипции и анализа данных до написания заголовков и распространения контента. Тем не менее, уверенность в стратегической выгоде этих инструментов остаётся неоднородной.

Ньюман имеет тонкий взгляд на то, где должен быть ИИ. «Я действительно считаю, что его можно ответственно использовать во всех сферах цепочки создания стоимости (сбор новостей, упаковка/производство и распространение)», — говорит он.

Проблема, подчёркивает Ньюман, не в самом ИИ, а в том, где проявляются ошибки — и кто их видит. Эти риски наиболее острые в политике, срочных новостях и освещении кризисов — именно в тех сферах, где доверие наиболее хрупко и последствия — самые серьёзные.

Это напряжение лежит в основе спора: те же инструменты, которые могут повысить исследовательский потенциал, могут также усиливать ошибки с беспрецедентной скоростью.

Логика, ориентированная на доверие, для внедрения ИИ

Вместо того чтобы проводить жёсткие красные линии, Ньюман выступает за последовательный и рискованный подход к внедрению ИИ.

«В целом имеет смысл повысить эффективность бэк-энда, чтобы больше ресурсов направлять на передовую журналистику, и быть очень осторожными при внедрении фронтенда, потому что мы знаем, что общественность насторожена, и что надёжная информация, проверенная человеком, скорее всего, будет в дефиците.»

Другими словами, самая непосредственная и оправданная роль ИИ заключается за кулисами — освобождание времени журналистов, ускорение исследований и поддержка расследований — а не замена человеческого суждения в публичных материалах.

В то же время Newman cautioNS против полного замораживания инноваций. «Тщательные эксперименты с другими применениями действительно очень важны по мере развития этих мощных технологий.»

Этот баланс — эксперименты без подрыва доверия — и есть момент, когда системы управления, редакционные стандарты и механизмы прозрачности становятся критически важными.

С прогнозами, что текст, созданный ИИ, превзойдёт человеческий контент на основных каналах, на фоне эпохи сокращающегося внимания, задача для новостных организаций, платформ и регуляторов будет заключаться в том, чтобы доверие оставалось видимым, отслеживаемым и закреплённым в подотчётных структурах — а не скрытым в алгоритмическом тумане.

[BM]