- Global Voices по-русски - https://ru.globalvoices.org -

Как пандемия COVID-19 выявляет изъяны в системе модерации контента

Категории: гражданская журналистика, здоровье, права человека, свобода слова, технологии, COVID-19, Advox
[1]

Иллюстрация от Mozilla. Используется с разрешения.

Эта статья была написана в соавторстве Соланой Ларсен, редактором по отчётности в Mozilla [2] [рус] о здоровой среде в интернете, и Лейл Захра, членом Mozilla, сотрудничающим с WITNESS [3].

[Все ссылки ведут на страницы на английском языке, если не указано иного].

В то время, когда весь мир избегает пандемии COVID-19, оставаясь дома, интернет становится более важным ресурсом, чем когда-либо. Многие на данный момент общаются, выражают соболезнования, учатся, работают и развлекаются исключительно в онлайн-режиме.

С одной стороны, пандемия раскрыла потенциал интернета как международного средства общения. В то же время, она обнаруживает опасности интернета. Люди, оказавшиеся без подключения к сети [4] [рус], сейчас находятся в наиболее невыгодном положении. А из-за технологических недоработок [5], касающихся конфиденциальности и безопасности, многие пользователи оказываются в уязвимой ситуации.

Одной из удручающих проблем, которые были выявлены при пандемии, является недоработанная система модерации контента в интернете. Имеется в виду тот слабый механизм со множеством изъянов, который технические платформы-гиганты используют для борьбы с враждебными высказываниями, дезинформацией и нелегальным контентом. Несмотря на определённый прогресс, Facebook, YouTube и другие платформы часто ограничивают контент своеобразными и совершенно небезопасными способами. Так, к примеру, нежелательный контент проходит цензуру, тогда как безобидная информация несправедливо удаляется. Такие решения в большинстве своём задевают страны «третьего мира» и менее распространённые языки.

На данный момент, мы находимся в критической точке. Станут ли недоработки в регулировании контента множиться? Или этот кризис окажется основой для положительных, устойчивых изменений касательно того, как мы общаемся онлайн?

Один из самых острых вопросов при модерации информационных материалов: кто — или что — ограничивает контент. В связи с быстрым ростом дезинформации в период пандемии и тем, что многие модераторы контента не могут работать [6], большинство перегруженных платформ [7] всё чаще обращаются за помощью к искусственному интеллекту. Ограничения такого подхода очевидны. Автоматическая фильтрация материалов не смогла остановить распространение с бешеной скоростью недостоверной информации в период пандемии COVID-19, что поставило под угрозу здоровье населения. Сайты заполнены статьями, рассказывающими, что чистящие средства лечат от вируса, или что технология 5G является его разносчиком.

Вдобавок к допуску недостоверной информации на платформы, её автоматическая модерация может случайно привести к отсеиванию качественного контента. Пользователи интернета, задающие важные вопросы или общающиеся на диалекте определённого языка, могут быть ошибочно помечены как проблемные. Во время пандемии автоматическое ограничение контента на сайте Facebook привело к ошибочному удалению огромного количества информации, в том числе ссылок на новостные статьи о COVID-19. В марте представители Facebook заявили [8], что причиной стала техническая «проблема», и также добавили, что удалённая информация была восстановлена. Данный случай поднимает серьёзный вопрос об эффективности таких систем и, вдобавок, подвергает сомнению информационную прозрачность Facebook. Видеохостинг YouTube сообщил, что в связи с COVID-19 в марте автоматическая модерация будет более жёсткой: «В процессе пользователи и создатели видео могут заметить рост количества удалённых видео, включая ролики, которые не нарушают политику сайта». В похожем ключе, в том же месяце Twitter объяснил [9], что автоматизированная цензура «иногда может упустить контекст, который находит наша команда, а это приведёт к возникновению ошибок с нашей стороны».

Ситуацию усугубляет и тот факт, что при несправедливом удалении контента или блокировке аккаунта апелляционный процесс может быть не совсем прозрачным. Зачастую пользователям не сообщают о причинах удаления контента или блокировки аккаунта. Даже до начала пандемии контекст был главной проблемой при обсуждении модерации контента. Шли дискуссии, к примеру, о том, стоит ли нормы употребления языка, принятые в США, применять по всему миру.

Изъяны в автоматизированной технологии — это одна сторона медали, другой стороной можно считать странную политику и регламенты. В США, как и в некоторых европейских странах, технологические платформы-гиганты очень строго придерживаются местных законов и внимательно следят за соблюдением нормативных обязательств и регламента внутри компании. В остальном мире дело обстоит по-другому. Во время выборов в Нигерии 2018 года, исследователь и автор статей на GV Розмари Аджайи [10] и группа её коллег зафиксировали [11] сотни сообщений, распространяющих ложную информацию, и были обескуражены непредсказуемой и противоречивой ответной реакцией на жалобы о дезинформации. «Если в день выборов отправляешь важный отзыв, а ответ получаешь через неделю, в чём тогда смысл?» — удивляется [12] Аджайи. В сегодняшнем контексте такая ситуация особенно пугает. Когда платформа удаляет ложную информацию о COVID-19 после того, как миллионы людей её прочитали, что-либо менять уже поздно.

И это всего лишь две из ряда давно существующих проблем в сфере модерации контента. В одном из последних исследований [12] Mozilla о пространстве социальных сетей мы рассмотрели ещё несколько таких вопросов. Мы поговорили с польской неправительственной общественной организацией SIN, которая занимается вопросами наркополитики. Организация была заблокирована на сайте Facebook и им не удалось обжаловать это решение. Мы также побеседовали с исследовательской правозащитной группой Syrian Archive [13], которая сообщает, что довольно часто платформы стирают доказательства нарушения прав человека в военное время. Нетрудно себе представить, насколько опасными могут быть подобные ситуации во время пандемии. Что случится, если вдруг исчезнет крайне важная информация о здоровье или случайно удалят доказательства ущемления прав человека во время изоляции?

Для решения этих проблем нет универсального средства. Но более высокий уровень прозрачности в отношении того, что удаляется, когда и зачем, наряду с информацией о том, какая часть удалённого контента может быть обжалована и восстановлена, — поможет исследователям и пострадавшим сообществам с большей эффективностью защищать свои интересы. Тем не менее, за последние годы отчёты по прозрачности от платформ-гигантов стали более подробными, частично благодаря давлению со стороны гражданского общества, включая уполномоченных представителей из небольшой рабочей группы The Santa Clara Principles [14]. Эта группа в 2018 году сообщила о своём намерении создать ориентировочный план основополагающих принципов прозрачности и подотчётности в сфере модерации контента, и некоторые из платформ уже поддержали их инициативу. В марте, сообщив, что принятые принципы целесообразно было бы пересмотреть, «Фонд электронных рубежей» (Electronic Frontier Foundation) выпустил международную форму предложений [15] [рус], где пользователи могут оставить свои идеи о том, как можно улучшить ситуацию для тех, чьи голоса замалчиваются и модерируются.

Об ограничениях и о процессе рассмотрения апелляций в международном контексте известно очень мало, поэтому даже словесные доказательства пострадавших пользователей являются ценной информацией. Silenced.online [16] — это новый инструмент, созданный простыми пользователями, для обмена опытом о несправедливом удалении контента по всему миру. Платформа была основана с целью создать сообщество из организаций и людей, которые работают, или хотели бы работать, в сфере удаления и фильтрации контента.

Многие объединения сходятся во мнении о том, как важно гражданскому обществу и исследователям быть вовлечёнными в процесс модерации контента и регулирования платформ. Скандальные проишествия и переломные моменты приводят к созданию новых норм и правил, или к большей автоматизации, не всегда основанной на независимом анализе того, что действительно работает. Новые подходы к созданию механизмов подотчётности и апелляционного процесса, как, например, недавно созданный «Независимый надзорный совет» [17] [рус] для модерации Facebook, требуют внимания мировой общественности.

Как было отмечено выше, пандемия COVID-19 резко выявляет изъяны в системе фильтрации контента, но эти проблемы существуют давно, особенно по вопросам здравоохранения и дезинформации. Чтобы их решить — необходимы изменения в повседневном функционировании платформ [18], а также прозрачность и подотчётность их работы. Усиленное внимание к данной проблеме может ускорить процесс позитивных преобразований. Также это может привести к большей прозрачности, более гуманным технологиям, качественным законам, а вследствие этого и к здоровой интернет-среде.