Цифровой код и китайский флаг, символизирующие кибербезопасность в Китае.

Антон Петрусь | Момент | Гетти Изображения

Согласно отчету Financial Times, компании, занимающиеся искусственным интеллектом в Китае, проходят правительственную проверку своих крупных языковых моделей, направленную на то, чтобы убедиться, что они «воплощают основные социалистические ценности».

Обзор проводится Администрацией киберпространства Китая (CAC), главным государственным интернет-регулятором, и будет охватывать игроков всего спектра, от таких технологических гигантов, как ByteDance и Алибаба для небольших стартапов.

Модели искусственного интеллекта будут проверены местными чиновниками ЦАС на предмет ответов на различные вопросы, многие из которых связаны с политически чувствительными темами и президентом Китая Си Цзиньпином, сообщает FT. Также будут рассмотрены данные обучения модели и процессы безопасности.

Анонимный источник из ИИ-компании из Ханчжоу, который разговаривал с FT, сообщил, что их модель не прошла первый этап тестирования по неясным причинам. Они прошли только во второй раз после нескольких месяцев «догадок и корректировок», говорится в отчете.

Последние усилия CAC иллюстрируют, как Пекин шел по канату: догоняя США в области генИИ, и в то же время пристально следя за развитием технологии, гарантируя, что контент, созданный ИИ, соответствует его строгой политике интернет-цензуры.

Для китайских игроков в сфере искусственного интеллекта 2024 год станет «годом маленьких моделей», говорит аналитик

Страна была одной из первых, кто завершил разработку правил, регулирующих генерирующий искусственный интеллект, в прошлом году, включая требование, чтобы сервисы ИИ придерживались «основных ценностей социализма» и не создавали «незаконный» контент.

Соблюдение политики цензуры требует «фильтрации безопасности», и это усложняется, поскольку китайские дипломированные специалисты все еще обучаются работе со значительным объемом англоязычного контента, рассказали FT многочисленные инженеры и инсайдеры отрасли.

Согласно отчету, фильтрация осуществляется путем удаления «проблемной информации» из данных обучения модели ИИ и последующего создания базы данных чувствительных слов и фраз.

Сообщается, что из-за этих правил самые популярные чат-боты страны часто отказываются отвечать на вопросы по деликатным темам, таким как протесты на площади Тяньаньмэнь в 1989 году.

Однако во время тестирования CAC существуют ограничения на количество вопросов, которые LLM могут полностью отклонить, поэтому модели должны иметь возможность генерировать «политически корректные ответы» на деликатные вопросы.

Эксперт по искусственному интеллекту, работающий над чат-ботом в Китае, рассказал FT, что трудно предотвратить создание LLM всего потенциально опасного контента, поэтому вместо этого они создают дополнительный уровень в системе, который заменяет проблемные ответы в режиме реального времени.

Правила, а также санкции США, ограничивающие доступ к чипам, используемым для обучения LLM, затруднили китайским фирмам запуск собственных услуг, подобных ChatGPT. Однако Китай доминирует в глобальной гонке патентов на генеративный ИИ.

Полный отчет читайте в FT.