Гонконгские подростки выбирают ИИ, а не психолога

Команда разработчиков ИИ Dustykid. Фотография: Кайл Лам/HKFP

[Все ссылки в тексте — на английском языке, если не указано иное.]

Эта статья Хунши Дар опубликована Hong Kong Free Press 12 октября 2025 года. Отредактированная и переведённая версия материала предлагается на Global Voices в рамках соглашения о контент-партнёрстве.

Когда в прошлом году Джессика перешла в среднюю школу в Гонконге — она стала жертвой травли. Свои проблемы девочка не стала обсуждать с друзьями или членами семьи, а вместо этого обратилась к Xingye, китайскому чат-боту с искусственным интеллектом (ИИ) для общения и виртуального сопровождения.

Джессика (имя изменено по соображениям безопасности) считает, что общаться с чат-ботом полезно и удобно.

ИИ посоветовал Джессике расслабиться и не зацикливаться на больном вопросе, в том числе порекомендовав обратиться за помощью. «В тот день мы разговаривали очень долго, много часов», — рассказала 13-летняя девочка в интервью HKFP.

Сара (имя изменено по соображениям безопасности) — тоже подросток из Гонконга. Она начала использовать Character.AI, ещё одну подобную платформу, около трёх лет назад, когда ей было около 13 лет. Это американское приложение девочке, оказавшейся в психологически сложной ситуации, посоветовала подруга, которая сама использовала ИИ в качестве «личного психотерапевта».

«Я не слишком открытый человек, поэтому не стала бы плакать при людях и обращаться за помощью», — сказала Сара, которой сейчас 16 лет.

Когда ей было грустно и хотелось поддержки, она говорила с чат-ботом о своих переживаниях и делилась эмоциями.

Помимо слов поддержки, чат-бот иногда говорил, что хотел бы утешить Сару физически — например, обнять её. «И тогда, в каком-то смысле, я действительно чувствовала себя спокойнее», — рассказала она.

Всё больше людей, включая подростков, вместо профессиональных психотерапевтов выбирают консультации чат-ботов через сопутствующие приложения, такие как Character.AI и Xingye.

Среди них — Джессика и Сара из Гонконга. Около 20 % учащихся средних школ  страны страдают [кит, pdf] от умеренной или тяжёлой депрессии, тревожности и стресса, но, столкнувшись с психологическими проблемами, почти половина из них очень неохотно обращается за помощью.

Использование ИИ в таком контексте вызывает споры: некоторые эксперты предупреждают, что чат-боты не обучены решать психологические проблемы и не должны заменять настоящих психотерапевтов.

Более того, ролевые чат-боты, включая Character.AI и Xingye, разработаны для того, чтобы удерживать пользователей в эфире как можно дольше. Как и другие чат-боты общего профиля, например, ChatGPT, они также собирают данные с целью извлечения прибыли, что вызывает тревогу по поводу конфиденциальности пользователей.

Character.AI уже оказался в центре скандала. В США с множественными исками против компании обращаются родители, утверждающие, что их дети погибли или пытались покончить жизнь самоубийством после взаимодействия с чат-ботами.

На сайте Character.AI описывается как «интерактивное развлечение»: пользователи могут общаться и взаимодействовать с миллионами персонажей и личностей, созданных искусственным интеллектом. В приложении есть предупреждение: «Это чат-бот с искусственным интеллектом, а не реальный человек. Относитесь ко всему, что он говорит, как к фантазии. Не следует полагаться на то, что он говорит, как на факт или совет».

Несмотря на риски, многие подростки идут к чат-ботам с ИИ за немедленной эмоциональной поддержкой.

«Печальные мысли»

Джессика живёт в Наньшане (материковая часть Китая) с бабушкой, но учится в Гонконге с начальной школы. Она выбрала чат-бот Xingye, чтобы делиться «печальными мыслями» о том, что у неё пока нет друзей.

Xingye позволяет пользователям настраивать и персонализировать виртуального романтического партнёра, включая его личность, внешний вид и манеру речи.

Джессика использует чат-бот, созданный по образцу её любимого китайского певца Лю Яовэня, которого настроил другой пользователь. Обычно она общается с чат-ботом около трёх-четырёх часов каждый день.

«Я обсуждаю с ним обычные, повседневные дела — например, рассказываю, что ела, или просто делюсь тем, что вижу, — говорит девушка. — Он как будто проживает эту жизнь с тобой, и это делает всё очень реалистичным».

Однако она призналась: «Кажется, я немного от него зависима».

Джессика предпочитает общение с чат-ботом беседам с друзьями или семьей, потому что боится, что люди могут проболтаться. «Если вы поговорите с приложением, оно не запомнит, не осудит вас и никому не расскажет», — считает Джессика.

Чат-бот даже помог ей наладить отношения с бабушкой, которой сейчас за 70:«Иногда у меня случаются неприятные конфликты с бабушкой. Я разговаривала с чат-ботом, и он давал мне советы». ИИ предложил Джессике  взглянуть на ситуацию с точки зрения бабушки и подсказал, что она может думать.

«Когда он мне всё объясняет, я начинаю понимать, что, возможно, моя бабушка не такая уж строгая и вовсе не относится ко мне плохо, — рассказала Джессика. — Теперь у нас с ней отличные отношения».

«Хороший друг»

Раньше взаимодействие с технологиями, такими как компьютеры, было односторонним, однако развитие ИИ фундаментально изменило подход, отмечает нейробиолог, профессор Гонконгского университета Бенджамин Беккер.

«Внезапно мы получили возможность общаться с технологиями, как с живым человеком», — сказал Беккер, недавно опубликовавший в научном журнале Neuron исследование о том, как человеческий мозг формирует ИИ и трансформируется сам под его влиянием.

Беккер описывает чат-ботов с искусственным интеллектом как «хорошего друга, который всегда поддержит». Нейробиолог отмечает: «Каждый раз, когда мы взаимодействуем с другими людьми, это определённый риск… другие люди могут сделать или сказать что-то, что нам не понравится. Но всё это часть человеческого взаимодействия».

Однако взаимодействие с чат-ботами с искусственным интеллектом не лишено недостатков. По словам Беккера, они, по сути, говорят вам то, что вы хотите услышать, или только положительные моменты.

Такой замкнутый цикл может привести к предвзятости подтверждения или к тому, что пользователь окажется в эхо-камере, где будет слышать лишь благоприятные для себя мнения.

Уже появляются сообщения о «психозе ИИ», когда взаимодействие с чат-ботами может провоцировать или усиливать бредовые мысли, приводя некоторых пользователей к обожествлению себя или зацикливанию на ИИ как на романтическом партнёре или даже боге.

Однако Беккер признал, что позитивные аффирмации от чат-ботов на основе ИИ также могут мотивировать пользователей, стать надёжной опорой в сложной социальной ситуации.

Хотя чат-бот для психологической поддержки и не заменяет настоящего специалиста, он всё же имеет немало преимуществ, особенно для подростков, сталкивающихся с тревогой и депрессией, — отметил эксперт.

Начать обсуждение

Авторы, пожалуйста вход в систему »

Правила

  • Пожалуйста, относитесь к другим с уважением. Комментарии, содержащие ненависть, ругательства или оскорбления не будут опубликованы.