
Иллюстрация: Tactical Tech с визуальными элементами Йоргоса Багакиса и Алессандро Крипсты. Используется с разрешения
[Все ссылки в тексте — на английском языке, если не указано иное.]
Эта статья была написана Сафой Гнаим в сотрудничестве с Институтом имени Гёте — Бразилия и опубликована DataDetoxKit.org. Отредактированная и переведённая версия материала предлагается на Global Voices в рамках партнёрского соглашения.
Хотя сначала он может показаться «нейтральной технологией», у искусственного интеллекта (ИИ) тоже есть предрассудки. Перед нами вовсе не тот объективный инструмент, каким его многие считают. ИИ разрабатывается людьми и обучается на наборах данных. У людей, создающих ИИ, как и у вас, есть убеждения, своё мнение и опыт, которые определяют их выбор, сознают они это или нет. Инженеры и компании, которые разрабатывают и обучают ИИ, могут считать, что определённая информация или цели важнее прочих. В зависимости от того, какие наборы данных «скармливают» инструментам ИИ — например, алгоритмам или чат-ботам — машины могут выдавать предвзятые результаты. Вот почему ИИ способен генерировать неточную информацию, ложные предположения или принимать плохие решения, как обычный человек.
ИИ — «у каждого свои недостатки»
Для части людей ИИ — настоящее волшебство, однако «искусственный интеллект» — всего лишь машина. Говоря простыми словами, инструменты ИИ — компьютерные программы, которым скормили большой объём данных, чтобы они могли делать выводы. Под «ИИ» понимают различные инструменты, разработанные для распознавания закономерностей, решения проблем и принятия решений с гораздо большей скоростью и в больших масштабах, чем это могут сделать люди.
Но, как и любой инструмент, ИИ разрабатывается и программируется людьми. Люди, создающие машины, устанавливают правила, которым нужно следовать: «Делай то; но не делай этого». Знание того, что инструменты ИИ — автоматизированные системы с собственными ограничениями, налагаемыми человеком, может упростить вам участие в дискуссии о возможностях и недостатках ИИ.
Когда люди говорят об ИИ, они могут говорить о разном. Вот, допустим, несколько примеров инструментов ИИ, которые особенно популярны, и их недостатков:
Инструменты генерации текста создают контекст на базе ключевых слов (или «промптов», подсказок), которые задаёт человек. Инструменты обучаются на огромных объёмах текста разного качества из интернета. Иногда их называют «большими языковыми моделями» (LLM) или используют специальные названия продуктов, например, ChatGPT, или даже неформальные термины, как «чатботы» или «помощники ИИ». Хотя в некоторых случаях эти инструменты совершают подвиги на уровне человека, например, успешно сдают экзамены, но точно также и «галлюцинируют» — генерируют неточный текст.
Инструменты генерации изображений создают картинки или видео также на основе предложенных человеком ключевых слов. Вы могли слышать термин модели преобразования текста в изображение или конкретные названия продуктов, как DALL-E или Stable Diffusion. Эти инструменты могут создавать невероятно правдоподобные изображения и видео, но также известны тем, что транслируют стереотипы и могут использоваться для секс-шантажа и домогательств [рус].
Рекомендательные системы показывают контент, который, по их «предположению», вы скорее всего кликнете. Эти системы работают в фоновом режиме поисковых систем, лент социальных сетей и автовоспроизведения на YouTube. Это алгоритмы. Инструменты, которые показывают больше интересной вам информации, но также могут заманить вас в опасную кроличью нору. Рекомендательные системы используются при принятии важных решений, таких как найм на работу, поступление в колледж, взятие ипотечного кредита и в прочих вопросах повседневной жизни.
В то время как некоторые эксперты считают, что инструменты ИИ, как чат-боты, постепенно становятся «умнее», другие заявляют, что их ответы полны ошибок. Вот несколько причин, по которым стоит задуматься о предрассудках ИИ:
- Некоторые данные, на которых обучаются машины, могут быть личными, защищёнными авторским правом или использоваться без разрешения.
- Иногда в этих наборах данных полно агрессии, теорий заговора или просто полностью ложной информации.
- Машинные данные могут транслировать предвзятость по отношению к определённым людям, полу, культурам, религиям, работам или обстоятельствам.
ИИ часто обучается на неполных данных. Если информация о какой-то культуре, языке или социальной группе отсутствует, система не сможет корректно отвечать по этим темам. В ходе исследования Gender Shades (2018 года), Джой Буоламвини выявила, что многие алгоритмы распознавания лиц плохо идентифицируют лица людей с цветом кожи, отличным от светлого — особенно женщин. Эти технологии, несмотря на неточности, уже применялись полицией в США.
Выявляйте предубеждения, чтобы их не повторять
Теперь, когда вы знаете о некоторых недостатках наборов данных ИИ, которые создаются такими же людьми, как вы, давайте взглянем на себя. Каким образом механизмы работы человеческого мозга могут пролить свет на предвзятость искусственного интеллекта?
Ряд предубеждений глубоко укоренились в людях, организациях, культурах и обществах. Поразмышляйте, например, над следующим:
- Что вы считаете «нормой» в поведении, речи и внешнем виде других людей?
- Существуют ли группы, которые сталкиваются с большим риском, агрессией или стигматизацией из-за того, как они выглядят или как себя ведут, одеваются или говорят?
То, о чём вы сейчас думали, часто основано на предположениях, установках и стереотипах, которые были частью культур в течение очень долгого времени и влияют на ваше принятие решений, даже если вы этого не осознаёте. Вот почему их называют «неосознанными предубеждениями» — они часто встроены в образ мышления, их трудно обнаружить и ещё сложнее с ними бороться.
Среди распространённых неосознанных предубеждений:
- Гендерная предвзятость: склонность делать поспешные выводы относительно людей разного пола на основе предрассудков или стереотипов.
- Расовая и/или этническая предвзятость: склонность делать поспешные выводы относительно людей на основе цвета их кожи, культурного происхождения и/или этнической принадлежности.
В Гарварде есть огромная библиотека тестов на неосознанные предубеждения, которые вы можете бесплатно пройти онлайн, чтобы увидеть, как вы справляетесь и над какими областями следует поработать. Когда у вас много неосознанных предубеждений, то может показаться, что уже одно их выявление — это целая работа. Маловероятно, что это произойдёт за одну ночь, но почему бы не начать прямо сейчас?
Золотые прИИски
Теперь, когда вы увидели распространённые примеры шаблонов мышления и неосознанных предубеждений, представьте, как это может выглядеть в гораздо больших масштабах. Такие шаблоны могут влиять не только на отдельных людей, но на целые группы, особенно когда они «жёстко встроены в код» в компьютерных системах.
Вот, например, результат работы Perchance.org для генерации текста в изображение по запросу «красивая женщина»:

Изображения ИИ, созданные на Perchance.org 13 августа 2024 года. Предоставлены Tactical Tech
Если инструмент создал шесть изображений «красивых женщин», почему все они выглядят почти одинаково?
Попробуйте сами — отличаются ли ваши результаты?
На эту тему проводились и более масштабные исследования с похожими результатами. Вы можете прочитать об одном таком исследовании и посмотреть инфографику здесь: «Люди предвзяты. Генеративный ИИ ещё хуже».
Инструменты ИИ не нейтральны или беспристрастны. Они принадлежат людям и создавались людьми, имеющими собственные мотивы. Даже инструменты ИИ, в названии которых есть термин «открытый», не обязательно полностью раскрывают методику рабочего процесса, и в их программы уже могут быть заложены некие предубеждения.
Вы можете задавать критические вопросы о том, как создаются и обучаются модели ИИ, чтобы понять, как ИИ встраивается в более широкую систему.
- Кому принадлежат компании, создающие модели ИИ?
- Какую прибыль получают компании?
- Какие системы власти создаются или поддерживаются компаниями?
- Кто получает наибольшую выгоду от инструментов ИИ?
- Кому больше всего может навредить ИИ?
Ответы на эти вопросы может быть трудно или невозможно найти. Но задаваться ими полезно.
Поскольку технологии создаются людьми и питаются данными (которые также собирают и маркируют люди), для нас технологии могут быть зеркалом уже существующих в обществе проблем. И в этом контексте инструменты на основе ИИ усиливают дисбаланс, систематизируют и увековечивают предрассудки, только гораздо быстрее, чем это происходило когда-либо.
Как вы узнали, ошибочные паттерны мышления — абсолютная норма, каждый предвзят в той или иной степени. Начав смотреть фактам в лицо сегодня, вы сможете избежать ошибок завтра и сможете выявлять недостатки в системах, таких как ИИ.








