Политика Global Voices в отношении ИИ

Global Voices с гордостью публикуют тексты, переводы и иллюстрации, созданные людьми для людей, и мы ожидаем, что наши авторы будут придерживаться этих стандартов.

Поскольку пользователи всё чаще применяют инструменты, основанные на больших языковых моделях (LLM) — ChatGPT, DeepSeek, Midjourney и другие формы генеративного ИИ, — и искусственный интеллект интегрируется в существующие платформы и операционные системы, для Global Voices, как медиаорганизации, важно изложить чёткую политику использования ИИ на нашем сайте.

У нас есть две основные причины, чтобы ограничить использование LLM в нашей работе. Обе непосредственно связаны с нашей миссией:

  1. Доверие. LLM не запрограммированы быть точными в фактах. Хотя их вероятностные модели периодически выдают достоверную информацию, это не является одной из их целей, а потому достаточно примеров, когда пользователи получают ложные ответы. Как новостная организация, следующая журналистским принципам, мы стремимся сообщать факты. Полагаясь на LLM для написания статей или переводов, или на программы, которые генерируют графику или иллюстрации с помощью текстовых указаний, мы рискуем нарушить эти принципы и обмануть доверие наших читателей.
  2. Доносить голоса тех, кого не слышат. LLM используют существующие данные — например, цифровые тексты, на которых они обучаются — для расчёта вероятных ответов. Поэтому результат, который выдаёт искусственный интеллект, обычно смещён в сторону самых популярных и распространённых данных из сети. В отдалённой перспективе это ведёт к однородности интернета, когда минимизируются и стираются отдельные пики информации, включающие редко звучащие голоса, которым мы как организация пытаемся помочь. Мы стремимся предлагать идеи и знания, даже — на самом деле, особенно — если они не совсем соответствуют стандартам или стандартным способам мышления. Это гораздо важнее для нас, чем то, что «звучит» правильно, но не выражает точку зрения, основанную на опыте и идеях отдельного человека.

Помимо этих причин, есть и другие важные соображения: воздействие LLM на окружающую среду; вопросы авторских прав, возникающие как в связи с обучением моделей, так и в связи с предлагаемыми ими результатами, а также уважение к авторам и иллюстраторам, чьи работы использовались без разрешения; невидимость людей, которые помогают развитию LLM, часто за низкую плату и в плохих условиях.

Поиск баланса

Мы понимаем, что LLM предлагают очевидно простой способ писать, рисовать или переводить. Особенно удобны они для людей, пишущих на неродном языке, а также тем, кому приходится соблюдать незнакомые правила стиля или стандарты публикации. Мы также признаём, что LLM и другие технологии, объединенные под названием ИИ, не всегда легко распознать. Это уже целый спектр, от проверки орфографии и грамматики до выводов на основе текстовых подсказок, и LLM часто связаны с другими программами, что затрудняет полноценную работу без них.

Более того, мы признаём, что писатели, иллюстраторы и переводчики уже давно используют различные инструменты для улучшения работы: словари, тезаурусы, руководства по стилю, справочные рисунки/фотографии и т. д. Некоторые из приложений ИИ работают похожим образом. Переводчики могут проверять термины в онлайн-переводчике вместо того, чтобы обращаться к словарю; писатели могут запускать проверку орфографии или искать синонимы.

Однако мы равным образом не принимаем статей, скопированных из энциклопедии или «Википедии» (даже с несколькими изменёнными словами), или переводы, в которых каждое слово заменено результатом поиска в словаре, и не будем принимать автоматически сгенерированные тексты, переводы или иллюстрации.

Как децентрализованная организация, мы должны иметь возможность доверять нашим участникам. Сейчас не существует технологий, которые могли бы с высокой степенью вероятности идентифицировать сгенерированные LLM тексты или переводы, либо вычислить иллюстрации, созданные на основе подсказок. Те механизмы, которые претендуют на подобное, часто страдают от тех же этических и экологических проблем, что и сами LLM. Поэтому мы оставляем за собой право строго проверять тексты, переводы или иллюстрации, в которых просматриваются явные признаки генерации ИИ, запрашивать от автора корректуру, отклонять публикацию или вообще удалять материалы, в зависимости от обстоятельств, если обнаружим, что означенные инструменты использовались способами, противоречащими нашей миссии.

Уточним, что в условиях быстро меняющих технологий эту политику, возможно, вскоре придётся корректировать. По мере необходимости мы будем публиковать обновления.

Начать обсуждение

Авторы, пожалуйста вход в систему »

Правила

  • Пожалуйста, относитесь к другим с уважением. Комментарии, содержащие ненависть, ругательства или оскорбления не будут опубликованы.