Китай: спешная разработка системы цензуры на базе искусственного интеллекта

An image of chip technology surrounding the Chinese flag.

Изображение: Ойван Лам с помощью Canva Pro

Пока весь мир обсуждает, как быстро развивающийся ИИ влияет на авторское право и работу с большими данными, в Китае нарастает тревожный тренд: автоматизация цензуры. ИИ делает возможным переход от привычной пассивной фильтрации информации к целенаправленному и системному структурированию общественного сознания в интересах правящей партии.

Как ещё несколько месяцев писали журналисты Hong Kong Free Press, китайские языковые ИИ-модели (LLM) вроде Qwen, Ernie или Deepseek, как правило, транслируют взгляды Коммунистической партии. Но, по мнению аналитика China Media Project Алекса Колвилла [анг], новое исследование указывает, что цензура в этих системах становится ещё строже.

If you had asked DeepSeek’s R1 open-source large language model just four months ago to list out China’s territorial disputes in the South China Sea — a highly sensitive issue for the country’s Communist Party leadership — it would have responded in detail, even if its responses subtly tugged you towards a sanitized official view. Ask the same question today of the latest update, DeepSeek-R1-0528, and you’ll find the model is more tight-lipped, and far more emphatic in its defence of China’s official position.

Если бы четыре месяца назад вы обратились к модели DeepSeek R1 с просьбой перечислить территориальные споры Китая в Южно-Китайском море — один из самых острых для КПК вопросов — то получили бы подробный ответ, может, разве что с едва заметным креном в сторону официальной риторики. Сегодня же новая версия модели, DeepSeek-R1-0528, демонстрирует гораздо большую сдержанность и куда более ярко выраженную приверженность официальной позиции Китая.

Формирование «политкорректного» искусственного интеллекта строго регламентируется [анг]. С 2022 года в Китае действует положение [кит], обязывающее системы автоматических рекомендаций «продвигать позитивную энергию» и соответствовать «мейнстримным» идеологическим установкам. Идеологическое руководство [кит], обнародованное в январе 2023 года, содержит директивы для поставщиков, обязывающие их «уважать социальные нормы и мораль» и придерживаться «верного политического курса и ценностных ориентиров». Полгода спустя Временные меры по регулированию генеративных ИИ-сервисов [анг] потребовали от всех ИИ-систем отражать «основные социалистические ценности», а для обучения ИИ использовать только данные из «законных источников» [анг], исключающих нелегальный или запрещённый контент.

Влияние цензуры ИИ

Поскольку ИИ-цензура становится всё более распространенной, Китай меняет свой подход к цензуре в интернете, переходя от традиционных, трудоёмких методов к новой эре, основанной на искусственном интеллекте. Эту тенденцию подтверждает свежий анализ China Media Project [анг].

Цензура в Китае традиционно строилась на работе огромного числа модераторов, вручную проверяющих социальные сети и СМИ на наличие политически острых тем. Цензоры удаляли посты, пересекавшие «красные линии», и блокировали неугодный контент. Эта система требовала колоссальных трудозатрат и съедала много времени, не поспевая за стремительным темпом онлайн-коммуникации. Всё это — часть обширной индустрии «мониторинга общественного мнения», в рамках которой тысячи людей занимаются тотальной слежкой [анг] за цифровым пространством.

Сейчас, с ростом числа LLM, китайское правительство и технологические гиганты встраивают цензуру непосредственно в архитектуру систем ИИ. Китайские LLM учатся самоцензуре генеративного контента, чтобы модели ИИ двигались в «правильном политическом направлении». Это подтверждает недавняя утечка набора данных в 300 ГБ [анг] с 133 000 единицами контента [анг] и инструкциями для ИИ как классифицировать и ранжировать конфиденциальный контент. Основная цель, видимо, заключается в классификации контента, связанного с общественным мнением. Этот набор данных раскрывает сложную систему классификации из 38 различных категорий, от обычных тем, таких как «культура» и «спорт», до более политически спорных.

Кто именно слил набор данных — до сих пор неизвестно. Но эксперты полагают [анг]: речь идёт не просто об утечке, а о стремительной трансформации — искусственный интеллект вытесняет ручной труд тысяч цензоров, очищая место машине, способной самостоятельно и непрерывно следить за каждым уголком интернета. Исследователь из Беркли Сяо Цян считает [анг], что с появлением генеративного ИИ китайская система цифровой цензуры вступила в новую эру:

Unlike traditional censorship mechanisms, which rely on human labor for keyword-based filtering and manual review, an LLM trained on such instructions would significantly improve the efficiency and granularity of state-led information control.

Традиционная цензура основывается на человеческом труде — ручной фильтрации по ключевым словам и проверке публикаций. Но если обучить языковую модель выполнять эти задачи, это не только ускорит процесс, но и сделает государственный контроль информации куда более точечным и изощрённым.

Китай не только обучает свои языковые модели цензуре, но и создаёт собственные эталоны «приемлемости» ИИ. За два месяца до принятия закона о генеративном ИИ [анг] группа китайских специалистов во главе с доцентом Гонконгского университета науки и технологий Хэ Цзюньсянем выложила на GitHub набор C-eval [анг] — почти 14 тысяч вопросов [анг] с вариантами ответов по 52 дисциплинам, включая идеологические курсы вроде «мыслей Мао Цзэдуна», «марксизма» и «идеологического и морального воспитания».

Несколько месяцев спустя, уже в начале 2024 года, Китайская академия информационных и коммуникационных технологий при Министерстве промышленности представила ещё один ориентир — «эталон безопасности ИИ» [кит], включающий 400 тысяч китайских промптов, направленных на выявление культурных отклонений, угроз психологическому благополучию, нарушений конфиденциальности и политической «нелояльности».

Глобальное распространение китайских нарративов

В рамках китайских ИИ-эталонов и правил ограничиваются и подвергаются цензуре не только локальные инструменты генеративного ИИ, но и западные бренды, такие как Microsoft Copilot, особенно когда служба ИИ работает в Китае. Китайский диссидент в изгнании Учитель Ли привёл один пример на X:

Один друг рассказал, что когда он спросил Copilot от Microsoft, как свергнуть Си Цзиньпина, тот отказался отвечать. На аналогичный вопрос о Дональде Трампе ответ был моментально сгенерирован. Похоже, что инструмент подчиняется цензуре КПК.

Иными словами, создаётся система, в которой цензура — проактивна и невидима: ИИ изначально не генерирует и не рекомендует контент, который выходит за рамки одобренных государством границ.

Учитывая тот факт, что китайские генеративные ИИ жёстко следуют политической линии КПК, крупные поисковые системы, такие как Baidu (самая популярная поисковая система в Китае), и платформы социальных сетей, такие как Weibo, встроили в свои сервисы Deepseek. Всякий раз, когда пользователи ищут определённую информацию, Deepseek генерирует «политически корректный сюжет» или официальные нарративы.

По этой причине Алекс Колвилл предостерегает: «Любое внедрение модели DeepSeek за рубежом может спровоцировать экспорт системы социального контроля, действующей внутри КНР». Тайвань сегодня — одна из территорий, где ведётся напряжённая когнитивная борьба за направление развития генеративного искусственного интеллекта.

Согласно отчёту комитета США по Коммунистической партии Китая, DeepSeek изменяет или скрывает результаты по таким острым темам, как Тайвань 🇹🇼, в 85 % случаев, чтобы соответствовать требованиям цензуры КПК, и тайно перенаправляет данные пользователей обратно в Китай. Демократия должны защищать цифровые пространства от авторитарного контроля.

Хотя с 1949 года Тайвань фактически является самостоятельным государством — после того как Гоминьдан, проиграв гражданскую войну Коммунистической партии Китая, перебрался на остров и создал там правительство в изгнании, — власти материкового Китая упорно продолжают считать Тайвань частью своей территории. В последние годы Китай всё активнее пытается принудить остров к объединению, прибегая не только к дипломатическому и экономическому давлению, но и к методам когнитивной войны [анг, pdf, 1421 КБ]: целенаправленной пропаганде, информационным вбросам и психологическим операциям.

Вооружившись новыми технологиями, китайская политическая пропаганда начала активную экспансию за пределы страны. Согласно недавнему отчёту OpenAI [анг, pdf, 7,3 МБ] о злоупотреблениях её моделями, некоторые китайские акторы пользовались технологиями для отслеживания антикитайских высказываний в соцсетях, размещения антиамериканской риторики на испанском языке для латиноамериканской аудитории, а также для генерации комментариев с осуждением китайских диссидентов, включая Цай Ся.

Рост международного интереса к моделям ИИ от DeepSeek, привлекающих сочетанием высокой производительности и низкой цены, поднимает важный вопрос: каким образом встроенные в эти модели политические фильтры могут повлиять на глобальную аудиторию. В более широком контексте это вызывает тревогу — ведь речь идёт о миллионах людей, начинающих использовать ИИ-системы, сознательно разработанные для трансляции и усиления официальной позиции китайского правительства.

Развитие этих технологий демонстрирует, как генеративный ИИ может стать оружием в руках авторитарных режимов, позволяющим контролировать диссидентов, усиливать информационное давление и идеологическое воздействие — в условиях, когда международное регулирование в области ИИ [анг] и защита прав человека не поспевают за технологическим прогрессом.

Начать обсуждение

Авторы, пожалуйста вход в систему »

Правила

  • Пожалуйста, относитесь к другим с уважением. Комментарии, содержащие ненависть, ругательства или оскорбления не будут опубликованы.