
Изображение: Ойван Лам, создано с помощью Canva Pro
Запуск в январе 2025 года китайской системы генеративного искусственного интеллекта (ИИ) DeepSeek R1 поколебал прежние представления о развитии технологий, их себестоимости и мировой конкуренции. Некоторые даже утверждают, что эта система уравняла позиции игроков в сфере ИИ. Но продвижение DeepSeek за пределами Китая под руководством Коммунистической партии (КПК), открывающее доступ к передовым решениям для стран Глобального Юга [анг], сопряжено со скрытыми угрозами и рисками для прав человека.
Ранее эксперты полагали, что инновации в области ИИ — это дело только самых богатых стран, где этим будут заниматься мощные корпорации из-за колоссальных затрат на оборудование. Даже основатель OpenAI Сэм Альтман во время визита в Индию в 2023 году заявил, что обучение базовых систем ИИ с бюджетом в 10 000 000 долларов США бессмысленно: «Вы можете попробовать, но конкурировать с нами безнадёжно».
Sam Altman – founder of OpenAI and ChatGPT – is in India and VCs are asking some tough questions to him
— Amitabh Verma (@amitabh26) June 8, 2023
Сэм Альтман — основатель OpenAI и ChatGPT — посетил Индию, и венчурные инвесторы задают ему сложные вопросы.
Тем не менее слова Альтмана опроверг прорыв DeepSeek. Сэму пришлось признать [анг], что китайский ИИ — «впечатляющая модель, особенно учитывая то, что они способны предложить за такую цену».
Созданный в Китае ИИ вызвал интерес в развивающихся странах [анг]. Теперь Китай смело позиционирует себя ключевым технологическим партнёром Глобального Юга, продвигая идею сокращения разрыва в сфере ИИ для менее развитых регионов.
Кроме того, стратегическое использование ИИ во внешней политике — через инициативы наподобие «Цифрового шелкового пути» [анг] и предложение о создании Глобальной организации по сотрудничеству в области ИИ [анг] — может существенно изменить региональный баланс сил в пользу Китая.
Открытый исходный код DeepSeek R1 позволяет разработчикам скачивать, модифицировать модель и настраивать в соответствии с местными условиями. Её можно адаптировать [анг] к региональным языкам, таким как суахили, хауса или амхарский, а также к особым экономическим реалиям.
Правительство Индонезии, например, планирует [анг] создать собственную локальную версию DeepSeek для использования в государственном и частном секторах.
Читайте также: Сможет ли искусственный интеллект изменить к лучшему жизнь большинства людей на планете?
Эти связи не только ускоряют развитие технологий, но и способствуют геополитическому сближению.
Некоторые аналитики считают [анг], что возрастающая зависимость Африки и Азии от китайских технологий, стандартов и систем обмена данными ведёт к перераспределению силового баланса в ущерб США и Европе. Это также может повлиять на баланс влияния в рамках многосторонних форумов и международных организаций, включая ООН.
Формирование глобальных нарративов
Однако DeepSeek — как внутри страны, так и за её пределами — согласует ответы своего чат-бота с официальной позицией КПК. Уже многие СМИ отметили [анг] очевидную цензуру и изменение ответов на политически острые вопросы, однако реальная опасность заключается не только в сокрытии или удалении информации.
По словам аналитика China Media Project (CMP) [анг] Алекса Колвилла, формирование нарративов с помощью генеративного ИИ — это изощрённая манипуляция общественным мнением. Ниже приведён пример из материала CMP:
When asking questions about natural disasters in China, for example, the model treats Chinese government data and sources as infallible, and portrays the leadership’s response as being effective, transparent and humane. Meanwhile, dissenting voices are either minimized, omitted entirely, or explained away as “biased” or lacking understanding.
Например, когда речь заходит о стихийных бедствиях в Китае, модель рассматривает государственные данные и источники как безошибочные и описывает реакцию руководства как эффективную, открытую и гуманную. Между тем, иные мнения либо сводятся к минимуму, либо полностью игнорируются, либо объясняются «предвзятостью» и отсутствием понимания.
Иными словами, большая языковая модель (БЯМ) может стать проводником политических нарративов Пекина и формировать представления по особым вопросам, например, о правах человека, Тайване, экономическом развитии и роли Китая в мировой торговле.
Что ещё хуже, китайские политические нарративы могут экспортироваться в другие страны через адаптацию языковой модели. Аналитик предупреждает:
But if even cutting-edge tech companies in developed nations, for all their resources and funds, are struggling to train propaganda out of DeepSeek, what hope do start-ups in the Global South have?
Но если даже передовые технологические компании развитых стран, со всеми их ресурсами и финансированием, испытывают трудности с удалением пропаганды из DeepSeek, то на что могут рассчитывать стартапы из стран Глобального Юга?
Австралия, Южная Корея и Тайвань уже запрещают использование DeepSeek [анг] на государственном уровне, ссылаясь на угрозы безопасности и отсутствие информации о том, как DeepSeek обрабатывает персональные данные пользователей.
За пределами DeepSeek: пропаганда, управляемая ИИ
Уже есть данные, раскрывающие, как Китай использует DeepSeek и другие технологии ИИ для создания и распространения пропаганды, включая дипфейки и манипулятивный контент, чтобы влиять на общественное мнение и сеять раздор в других странах.
Эксперты по кибербезопасности Бретт Голдстайн и Бретт Бенсон из Университета Вандербильта упоминают китайскую компанию Golaxy, которая, помимо мониторинга общественного мнения, использует ИИ для сбора огромного количества данных из китайских и западных соцсетей и создания «сетей ботов, похожих на людей», а также «психологический профайлинг для влияния на отдельных пользователей».
Хотя компания отрицает эти обвинения, в статье для New York Times аналитики напоминают:
A.I.-driven propaganda is no longer a hypothetical future threat. It is operational, sophisticated and already reshaping how public opinion can be manipulated on a large scale.
Пропаганда на основе ИИ — больше не гипотетическая угроза будущего. Она оперативна, сложна и уже меняет способы манипулирования общественным мнением в огромных масштабах.
Материалы, попавшие в результате утечки к журналистам, доказывают, что компания работала в Гонконге в 2020 году, когда был принят Закон о национальной безопасности. ИИ «выявлял тысячи участников и лидеров мнений среди 180 000 аккаунтов гонконгского Twitter» и затем атаковал то, что счёл «ложью и заблуждениями» через свои бот-сети. Похожая операция проводилась во время всеобщих выборов в Тайване в 2024 году.
Исследователи объяснили, как пропаганда на основе ИИ массово манипулировала общественным мнением в соцсетях:
By extracting user data and studying broader patterns, A.I. can build synthetic messaging designed to appeal to a wide spectrum of the public. It can adapt to a user’s tone, values, habits and interests, according to the documents. Then it can mimic real users by liking posts, leaving comments and pushing targeted content.
Извлекая пользовательские данные и изучая общие модели поведения, ИИ способен формировать синтетические сообщения, рассчитанные на широкую аудиторию. Согласно документации, он может адаптироваться к тону, ценностям, привычкам и интересам пользователей. Затем он имитирует реальных людей — ставит «лайки», оставляет комментарии и продвигает таргетированный контент.
В материале Microsoft Threat Intelligence [анг] «Same Targets, New Playbooks» («Старые цели, новые методы»), опубликованном [анг, pdf, 10,7 МБ] в 2024 году, также отмечалось как Китай усилил свои онлайн-кампании влияния в Азиатско-Тихоокеанском регионе с помощью контента, созданного ИИ:
The influence actors behind these campaigns have shown a willingness to both amplify AI-generated media that benefits their strategic narratives, as well as create their own video, memes, and audio content. Such tactics have been used in campaigns stoking divisions within the United States and exacerbating rifts in the Asia-Pacific region — including Taiwan, Japan, and South Korea.
За такими кампаниями стоят акторы, которые не только активно распространяют нужный им контент, созданный с помощью ИИ, но и сами генерируют видео, мемы и аудио. Эти приёмы уже использовались в операциях, усиливающих внутренние противоречия в США и усугубляющих расколы в Азиатско-Тихоокеанском регионе — в частности, в Тайване, Японии и Южной Корее.
Экспорт технологий слежки
Наряду с БЯМ Китай продвигает экспорт других технологий ИИ, например систем распознавания лиц, что очень тревожит некоторых экспертов. Например, профессор права Ану Брэдфорд отмечает [анг] в своём исследовании цифрового авторитаризма Китая, что через экспорт цифровых технологий и инфраструктуры китайское правительство будет продвигать свои стандарты регулирования и методы слежки по всему миру:
Many receiving countries have welcomed Chinese technologies and accompanying regulatory standards as a path toward digital sovereignty and development. For authoritarian governments, an additional motivation has been to gain access to surveillance technologies that they eagerly use toward illiberal ends.
Для многих стран-импортёров китайские технологии и сопутствующие регуляторные стандарты — это путь к цифровому суверенитету и развитию. Но дополнительный стимул для авторитарных правительств — получение доступа к технологиям наблюдения, которые охотно используются в нелиберальных целях.
В развивающихся странах дешёвые китайские технологии слежения могут решить ряд проблем, например, помочь в борьбе с преступностью. Но, как отмечает эксперт по международным отношениям Шина Честнат Грейтенс [анг], необходимо больше исследований, чтобы оценить влияние таких технологий на демократические институты, гражданские свободы и глобальный баланс сил.
Пекин позиционирует себя как ключевого технологического партнера Глобального Юга, предлагая недорогие и адаптируемые системы вроде DeepSeek R1. За этим стоит не только наращивание цифровой инфраструктуры, но и возможное политическое выравнивание: авторитарное государство Китай фактически претендует на роль лидера в мировом регулировании ИИ.
В настоящее время США конкурируют с Китаем [анг] за контроль в области управления ИИ, и движет ими прежде всего защита экономических интересов. В то же время инициативы гражданского общества о внедрении правозащитных стандартов в регулирование остаются без внимания. Если ситуация не изменится, мы можем оказаться в мире, где технологии ИИ используются исключительно для слежки и пропаганды.







