Около шести лет назад я писал о новом «вирусе» в журналистике. Несмотря на то, что прошло уже несколько лет, до сих пор не существует «антивируса» против дипфейков [анг], мастерство создания которых постоянно оттачивается, а последним шагом стало упрощение процесса производства видеороликов-мистификаций. До сих пор для создания дипфейков требовались определённые навыки использования конкретных программ. Разработка новых приложений, основанных на искусственном интеллекте (ИИ), но более простых в использовании, приводит к массовому производству дипфейков. Во время последних президентских выборов в Соединённых Штатах Америки чипфейков [анг] было больше, чем дипфейков, но основная причина заключалась в том, что чипфейки легко производятся и их может сделать каждый. Теперь это становится возможным и в случае с дипфейками. Не нужно особых дискуссий и расчётов, чтобы утверждать: в важных социальных процессах, таких как выборы, в мире информации дипфейки становятся основной проблемой сейчас, когда манипуляции всё более упрощаются в технологическом смысле.
Дипфейки — ложный визуальный контент, созданный с помощью ИИ, в котором реальный человек говорит или делает то, чего он никогда не делал. За годы существования одни дипфейки создавались для развлечения, другие — для повышения осведомлённости, но бывают случаи, когда манипулирование обществом посредством дипфейков происходит по политическим или экономическим мотивам.
Дипфейки становится всё легче создавать, поэтому вопрос об информировании общественности о проблеме становится актуальнее. Недавний пример из Балканского региона — эротическое видео якобы известной албанской телеведущей Луаны Вьоллка [алб], где её лицо поместили на чужое тело с помощью ИИ. Албанский журналист Бленди Февзиу в целях повышения осведомлённости опубликовал собственное фейковое видео, на котором он говорит на китайском, арабском, русском и португальском языках. В 2022 году в регионе появлялись и другие фейковые видеоролики, например, тот, где Илон Маск общается на албанском или сербском языках.
Эти примеры показывают, что создать дипфейк сейчас гораздо проще, чем несколько лет назад. Если расширить область анализа за пределы региона, то можно вспомнить вирусный дипфейк известной американской модели Беллы Хадид, в котором она якобы поддерживала действия Израиля [анг] в войне против ХАМАС, чего она никогда не говорила. Дипфейк Хадид собрал более 28 миллионов просмотров в X (ранее Twitter). Развитие технологий и простых в использовании программ на основе ИИ становится настоящей угрозой истине.
Сейчас истина находится на грани «гибели», потому что с увеличением количества дипфейков будет всё труднее понять, где же та самая правда. Учитывая кризис доверия к СМИ, в ближайшем будущем медиасфера столкнётся с ещё большими трудностями. В этих условиях бороться с фейками лучше всего с помощью профессиональной журналистики, представители которой придерживаются профессиональных стандартов и ставят интересы общества превыше всего. В противном случае сенсационная и кликбейтовая журналистика будет только разжигать недоверие к СМИ, погружая людей в атмосферу тревоги и неуверенности при получении информации, а также создавая пространство для иных акторов в информационном пространстве. В этой ситуации всегда выигрывают те, кто любит манипуляции в мутной воде и наживу путём макиавеллистского подхода, и не задумывается об ущербе, нанесённом обществу.
Популяризация дипфейков в результате развития программирования на основе ИИ открывает новую главу в циркуляции информации и коммуникаций как для отправителя, так и для получателя информации. В контексте этого быстрого и знакового процесса необходимы особые усилия, чтобы упростить и ускорить методы проверки данных.
В настоящее время действует ряд программ, которые помогают обнаружить феномен, заставляющий людей существовать в ложной реальности — например, FakeCatcher [анг] и Sentinel [анг], — но до сих пор не существует инструментов открытых и доступных бесплатно всем желающим. Кроме того, важно постоянно совершенствовать методы обнаружения фейков, чтобы идти в ногу с развитием технологий, облегчающих производство поддельных материалов. В настоящее время платформы-помощники не распознают аудиоманипуляции, которые являются важным элементом аудиовизуальных манипуляций: уже есть случаи, когда изображение реально, а вот звук генерируется ИИ.
Знание и понимание феномена дипфейков помогает обществу более критично относиться к любому видео, с которым оно сталкивается. Разумеется, инструменты для обнаружения дипфейков крайне важны, но также необходимы активные действия отдельных лиц и организаций гражданского общества, чтобы помочь людям осознать присутствие и последствия дипфейков в повседневной жизни.
Что касается юридической стороны вопроса, то в новой правовой базе для дипфейков нет необходимости, поскольку уже существуют законы, регулирующие контент, цель которого — обман, клевета или нанесение вреда отдельным лицам, предприятиям или обществу в целом. Однако важно сделать приоритетным вопрос дипфейков из-за скорости их распространения, вирусизации и потенциального вреда.