
Иллюстрация Лиз Карриган и Сафа, с визуальными элементами Алессандро Крипсты, используется с разрешения авторов
Эта статья подготовлена Сафой для серии Digitized Divides [анг] и опубликована на tacticaltech.org [анг]. Отредактированная и переведённая версия материала предлагается на Global Voices в рамках партнёрского соглашения.
Для многих людей из традиционно уязвимых групп социальные сети стали главным способом получать информацию и находить поддержку. Молодёжь находит в интернете сообщества, которые часто недоступны в реальной жизни — например, безопасные ЛГБТК+-пространства [анг]. Один подросток рассказывает [анг]: «Меня травили всю жизнь. Но онлайн мне проще найти друзей… […] Если бы не онлайн-сообщество, меня бы сегодня здесь не было».
Исследования показывают [анг], что опыт соцсетей — это двойственный феномен для ЛГБТК+ подростков: он может и защищать, и усиливать риски для психики, а также повышать вероятность употребления веществ. Современные аналитики говорят [анг] о неоднозначном опыте взаимодействия с социальными сетями для ЛГБТК+ подростков: онлайн-беседы могут снижать риски, а могут и усиливать их, включая угрозы психическому здоровью и повышение вероятности употребления психоактивных веществ.
В январе 2025 года Марк Цукерберг заявил [анг], что Meta (Facebook и Instagram) сворачивает программу внешней фактчекинговой проверки и переходит к модели «community notes», как на платформе X (бывший Twitter). Это решение подразумевает также отмену политики, защищавшей пользователей ЛГБТК+ [анг]. Проблема дезинформации по-прежнему остро стоит практически на всех социальных платформах: алгоритмы стимулируют распространение контента с максимальными кликами и лайками. Исследование [анг] показало, что 15 % самых активных пользователей Facebook создают 37 % ложных заголовков. Таким образом, достаточно небольшой группы людей, чтобы существенно исказить информационную среду.
Отказ Meta от стороннего фактчекинга вызывает тревогу у правозащитников и исследователей. Верховный комиссар ООН Фолькер Тюрк заявил [анг]: «Разрешение распространять ненависть и вредоносный контент в интернете влечёт за собой реальные последствия». Meta также обвинили в усилении геноцида рохинджа [анг], а также в разжигании этнического насилия в Кении [анг], Эфиопии [анг] и Нигерии [анг], отчасти из-за повсеместной дезинформации на платформе.
В одном из внутренних отчётов Facebook, попавших в сеть [анг], говорится: «У нас есть доказательства из различных источников, что разжигание ненависти, разжигание розни в политических выступлениях и дезинформация в Facebook… влияют на общества по всему миру. Есть подтверждения того, что основные механизмы нашего продукта — виральность, рекомендации — играют важную роль в продвижении подобных [вредоносных] высказываний на платформе». Международная сеть по проверке фактов заявила [анг], что закрытие девятилетней программы фактчекинга — шаг назад для тех, кто отдаёт приоритет точной и достоверной информации.
Непроверяемые публикации, беспорядочные ленты
Алгоритмы соцсетей определяют, что пользователи видят в лентах и поиске. Несмотря на исследования и критику, компании почти не адаптируют интерфейсы, чтобы облегчить проверку фактов. Опровержения распространяются хуже, чем ложная информация, и часто не меняют мнение людей.
Даже когда СМИ корректируют ложную информацию и необоснованные утверждения, этого недостаточно, чтобы нивелировать ущерб. Как пишет First Draft News: «Очень и очень сложно вытеснить [дезинформацию] из вашего мозга». Например, ложная информация публикуется в интернете или новостях и начинает циркулировать. Даже если её удаляют в течение нескольких минут или часов, „ущерб уже нанесён“, так сказать. Исправления и уточняющие заявления редко привлекают столько же внимания, сколько исходная ложная информация. Даже если люди это прочитают — вряд ли они это воспримут».
Алгоритмы стали настолько привычными, что мы часто недооцениваем их влияние. Некоторые примеры особенно болезненны. Например, отец узнал о беременности дочери благодарят алгоритму [анг]. Или другому отцу Facebook в «Итогах года» [анг] празднично оформил напоминание о смерти ребёнка. Такие примеры доказывают: создатели и разработчики систем обязаны учитывать худшие возможные сценарии. Даже редкие случаи важны и требуют внимания, анализа и мер предосторожности.
Многочисленные исследования показывают, что рекомендательные алгоритмы соцсетей втягивают аудиторию всё глубже в кроличью нору [анг], радикализуя людей через формирование траектории потребления контента. «Моральное негодование — вероятно, самая мощная валюта онлайн-внимания». В 2021 году выяснилось, что алгоритм TikTok ведёт пользователей от трансфобных видео к материалам жёсткого ультраправого толка — расистским, мизогинным и эйблистским: «Трансфобия, как показывает наше исследование, может быть „входной точкой“ для дальнейшей радикализации». YouTube долгое время называли «машиной радикализации», и проблемы, кажется, не исчезли: свежий отчёт выявил, что YouTube Kids направляет детей к контенту о расстройствах пищевого поведения. Перед выборами 2025 года в Германии исследователи также обнаружили [анг], что контент лент соцсетей — особенно в TikTok — заметно смещён вправо.
Подрыв доверия
Люди все чаще выбирают альтернативные способы поиска информации. Отчёт 2019 года показал [анг], что подростки получают большую часть новостей из соцсетей. Статья [анг] 2022 года указала, что молодёжь предпочитает TikTok, а не Google. Исследования [анг], проведённые в том же году, показывают, что люди младше тридцати лет доверяют соцсетям почти так же, как и национальным новостным агентствам. Международный отчёт [анг] 2023 года подтверждает, что новостям доверяют меньше половины (40 %) респондентов.
По мнению экспертов [анг], «информационный хаос» может привести к увеличению государственного контроля над информацией. Они добавляют, что «доступ к концентрированному технологическому арсеналу станет ещё более важным компонентом мягкой силы для крупных держав, укрепляющих своё влияние».
На выборах в Индонезии 2024 года цифровые аватары, созданные ИИ, сыграли большую роль в привлечении молодёжи. Бывший кандидат, а ныне президент Прабово Субианто полностью изменил публичный образ, используя в социальных сетях аватар [анг], созданный с помощью генеративного ИИ. В итоге глава государства сумел выиграть выборы, отвлекая внимание от обвинений в серьёзных нарушениях прав человека. Генеративный ИИ [анг], включая чат-ботов, стал ключевым элементом информационного хаоса благодаря реалистичности и убедительности создаваемых им текстов и изображений.
Даже относительно безобидные спам-страницы вроде Shrimp Jesus [анг] могут быть связаны с мошенничеством и утечками данных. Более того, результаты работы генеративного ИИ могут находиться под строгим государственным контролем [анг]. «Автоматизированные системы позволили правительствам осуществлять более точные и тонкие формы онлайн-цензуры, — говорится в докладе Freedom House за 2023 год. — Распространители дезинформации используют изображения, аудио и тексты, сгенерированные ИИ, что упрощает искажение истины и затрудняет её выявление».
Как неоднократно повторялось в этой серии статей: технологии не бывают ни однозначно хорошими, ни однозначно плохими — всё зависит от цели, для которой они используются. «Технологии впитывают политические взгляды своих создателей, но почти все технологии можно использовать и иными способами». Разнообразные примеры использования и сравнения могут быть полезны при обсуждении конкретных инструментов и методов, но лишь на поверхностном уровне — например, как в случае с цифровыми аватарами, упомянутом в этой статье.
Один из интересных примеров — Венесуэла, где медиапространство [анг] заполнено проправительственными сообщениями, созданными ИИ, а журналистам грозит тюрьма. В ответ работники СМИ используют цифровые аватары [анг], чтобы защититься и сохранить конфиденциальность. Это, безусловно, история сопротивления, только в более широком и гнусном контексте власти и наказания. Каждая технология по отдельности может казаться одновременно полезной и проблемной, но если посмотреть шире, то обнаруживаются властные структуры, которые подвергают людей рискам. Баланс выгод и ущерба в технологиях совершенно неравнозначен.
Две истины могут сосуществовать: технологии дают людям новые возможности и одновременно могут использоваться для причинения вреда и угнетения.







