Следите за этим? Как технологии создают «информационный хаос»

Two pink birds with strings of emails beneath them. Image by Liz Carrigan and Safa, with visual elements from Alessandro Cripsta, used with permission.

Иллюстрация Лиз Карриган и Сафа, с визуальными элементами Алессандро Крипсты, используется с разрешения авторов

Эта статья подготовлена Сафой для серии Digitized Divides [анг] и опубликована на tacticaltech.org [анг]. Отредактированная и переведённая версия материала предлагается на Global Voices в рамках партнёрского соглашения.

Для многих людей из традиционно уязвимых групп социальные сети стали главным способом получать информацию и находить поддержку. Молодёжь находит в интернете сообщества, которые часто недоступны в реальной жизни — например, безопасные ЛГБТК+-пространства [анг]. Один подросток рассказывает [анг]: «Меня травили всю жизнь. Но онлайн мне проще найти друзей… […] Если бы не онлайн-сообщество, меня бы сегодня здесь не было».

Исследования показывают [анг], что опыт соцсетей — это двойственный феномен для ЛГБТК+ подростков: он может и защищать, и усиливать риски для психики, а также повышать вероятность употребления веществ. Современные аналитики говорят [анг] о неоднозначном опыте взаимодействия с социальными сетями для ЛГБТК+ подростков: онлайн-беседы могут снижать риски, а могут и усиливать их, включая угрозы психическому здоровью и повышение вероятности употребления психоактивных веществ.

В январе 2025 года Марк Цукерберг заявил [анг], что Meta (Facebook и Instagram) сворачивает программу внешней фактчекинговой проверки и переходит к модели «community notes», как на платформе X (бывший Twitter). Это решение подразумевает также отмену политики, защищавшей пользователей ЛГБТК+ [анг]. Проблема дезинформации по-прежнему остро стоит практически на всех социальных платформах: алгоритмы стимулируют распространение контента с максимальными кликами и лайками. Исследование [анг] показало, что 15 % самых активных пользователей Facebook создают 37 % ложных заголовков. Таким образом, достаточно небольшой группы людей, чтобы существенно исказить информационную среду.

Отказ Meta от стороннего фактчекинга вызывает тревогу у правозащитников и исследователей. Верховный комиссар ООН Фолькер Тюрк заявил [анг]: «Разрешение распространять ненависть и вредоносный контент в интернете влечёт за собой реальные последствия». Meta также обвинили в усилении геноцида рохинджа [анг], а также в разжигании этнического насилия в Кении [анг], Эфиопии [анг] и Нигерии [анг], отчасти из-за повсеместной дезинформации на платформе.

В одном из внутренних отчётов Facebook, попавших в сеть [анг], говорится: «У нас есть доказательства из различных источников, что разжигание ненависти, разжигание розни в политических выступлениях и дезинформация в Facebook… влияют на общества по всему миру. Есть подтверждения того, что основные механизмы нашего продукта — виральность, рекомендации — играют важную роль в продвижении подобных [вредоносных] высказываний на платформе». Международная сеть по проверке фактов заявила [анг], что закрытие девятилетней программы фактчекинга — шаг назад для тех, кто отдаёт приоритет точной и достоверной информации.

Непроверяемые публикации, беспорядочные ленты

Алгоритмы соцсетей определяют, что пользователи видят в лентах и поиске. Несмотря на исследования и критику, компании почти не адаптируют интерфейсы, чтобы облегчить проверку фактов. Опровержения распространяются хуже, чем ложная информация, и часто не меняют мнение людей.

Даже когда СМИ корректируют ложную информацию и необоснованные утверждения, этого недостаточно, чтобы нивелировать ущерб. Как пишет First Draft News: «Очень и очень сложно вытеснить [дезинформацию] из вашего мозга». Например, ложная информация публикуется в интернете или новостях и начинает циркулировать. Даже если её удаляют в течение нескольких минут или часов, „ущерб уже нанесён“, так сказать. Исправления и уточняющие заявления редко привлекают столько же внимания, сколько исходная ложная информация. Даже если люди это прочитают — вряд ли они это воспримут».

Алгоритмы стали настолько привычными, что мы часто недооцениваем их влияние. Некоторые примеры особенно болезненны. Например, отец узнал о беременности дочери благодарят алгоритму [анг]. Или другому отцу Facebook в «Итогах года» [анг] празднично оформил напоминание о смерти ребёнка. Такие примеры доказывают: создатели и разработчики систем обязаны учитывать худшие возможные сценарии. Даже редкие случаи важны и требуют внимания, анализа и мер предосторожности.

Многочисленные исследования показывают, что рекомендательные алгоритмы соцсетей втягивают аудиторию всё глубже в кроличью нору [анг], радикализуя людей через формирование траектории потребления контента. «Моральное негодование — вероятно, самая мощная валюта онлайн-внимания». В 2021 году выяснилось, что алгоритм TikTok ведёт пользователей от трансфобных видео к материалам жёсткого ультраправого толка — расистским, мизогинным и эйблистским: «Трансфобия, как показывает наше исследование, может быть „входной точкой“ для дальнейшей радикализации». YouTube долгое время называли «машиной радикализации», и проблемы, кажется, не исчезли: свежий отчёт выявил, что YouTube Kids направляет детей к контенту о расстройствах пищевого поведения. Перед выборами 2025 года в Германии исследователи также обнаружили [анг], что контент лент соцсетей — особенно в TikTok — заметно смещён вправо.

Подрыв доверия

Люди все чаще выбирают альтернативные способы поиска информации. Отчёт 2019 года показал [анг], что подростки получают большую часть новостей из соцсетей. Статья [анг] 2022 года указала, что молодёжь предпочитает TikTok, а не Google. Исследования [анг], проведённые в том же году, показывают, что люди младше тридцати лет доверяют соцсетям почти так же, как и национальным новостным агентствам. Международный отчёт [анг] 2023 года подтверждает, что новостям доверяют меньше половины (40 %) респондентов.

По мнению экспертов [анг], «информационный хаос» может привести к увеличению государственного контроля над информацией. Они добавляют, что «доступ к концентрированному технологическому арсеналу станет ещё более важным компонентом мягкой силы для крупных держав, укрепляющих своё влияние».

На выборах в Индонезии 2024 года цифровые аватары, созданные ИИ, сыграли большую роль в привлечении молодёжи. Бывший кандидат, а ныне президент Прабово Субианто полностью изменил публичный образ, используя в социальных сетях аватар [анг], созданный с помощью генеративного ИИ. В итоге глава государства сумел выиграть выборы, отвлекая внимание от обвинений в серьёзных нарушениях прав человека. Генеративный ИИ [анг], включая чат-ботов, стал ключевым элементом информационного хаоса благодаря реалистичности и убедительности создаваемых им текстов и изображений.

Даже относительно безобидные спам-страницы вроде Shrimp Jesus [анг] могут быть связаны с мошенничеством и утечками данных. Более того, результаты работы генеративного ИИ могут находиться под строгим государственным контролем [анг]. «Автоматизированные системы позволили правительствам осуществлять более точные и тонкие формы онлайн-цензуры, — говорится в докладе Freedom House за 2023 год. — Распространители дезинформации используют изображения, аудио и тексты, сгенерированные ИИ, что упрощает искажение истины и затрудняет её выявление».

Как неоднократно повторялось в этой серии статей: технологии не бывают ни однозначно хорошими, ни однозначно плохими — всё зависит от цели, для которой они используются. «Технологии впитывают политические взгляды своих создателей, но почти все технологии можно использовать и иными способами». Разнообразные примеры использования и сравнения могут быть полезны при обсуждении конкретных инструментов и методов, но лишь на поверхностном уровне — например, как в случае с цифровыми аватарами, упомянутом в этой статье.

Один из интересных примеров — Венесуэла, где медиапространство [анг] заполнено проправительственными сообщениями, созданными ИИ, а журналистам грозит тюрьма. В ответ работники СМИ используют цифровые аватары [анг], чтобы защититься и сохранить конфиденциальность. Это, безусловно, история сопротивления, только в более широком и гнусном контексте власти и наказания. Каждая технология по отдельности может казаться одновременно полезной и проблемной, но если посмотреть шире, то обнаруживаются властные структуры, которые подвергают людей рискам. Баланс выгод и ущерба в технологиях совершенно неравнозначен.

Две истины могут сосуществовать: технологии дают людям новые возможности и одновременно могут использоваться для причинения вреда и угнетения.

Начать обсуждение

Авторы, пожалуйста вход в систему »

Правила

  • Пожалуйста, относитесь к другим с уважением. Комментарии, содержащие ненависть, ругательства или оскорбления не будут опубликованы.