[Все ссылки в тексте — на английском языке.]
В настоящее время почти каждый, пользуясь простым и широко доступным ПО с искусственным интеллектом (ИИ), может создавать аудио- или видеозаписи с участием знаменитостей или обычных людей, которые действуют и разговаривают по воле автора. Главный вопрос на повестке дня — защита прав людей, чьи голоса и изображения присваиваются. Крупные технологические компании объединяются в исторической попытке остановить злоупотребление ИИ на предстоящих выборах по всему миру.
Дипфейки продолжают развиваться и с каждым разом становятся всё лучше, убедительнее и ближе к реальности. Учитывая большое количество выборов по всему миру в 2024 году, есть вероятность, что ИИ будет включён в избирательные процессы и поставит под угрозу честность выборов. Манипулирование избирателями с помощью дипфейков — один из актуальных вопросов во многих странах мира, готовящихся к выборам. Около 4 миллиардов человек придут к урнам для голосования в более чем 50 разных странах. Учёные, журналисты и политики обеспокоены вероятностью использования контента [pdf, 2,5 МБ], созданного ИИ, в операциях политического влияния.
При этом контент ИИ также сильно повлияет на нашу социальную жизнь. В последнее время вирусные ролики были связаны со знаменитостями, но, учитывая, как быстро развиваются дипфейки, скоро у нас будут дипфейковые видео обычных людей, которые не являются знаменитостями или политиками и не провоцируют общественного интереса к своей деятельности. Это будет очень серьёзная угроза для общества, и именно поэтому очень важно иметь коллективные инициативы против мошенничеств, создаваемых ИИ.
Исследования свежих дипфейков
Дипфейки, или манипуляции, не основанные на ИИ, называемые «чипфейками», не новы и существуют уже некоторое время. Однако благодаря влиянию ChatGPT на открытие ИИ для более широкой аудитории, в прошлом году в компании, занимающиеся искусственным интеллектом, были инвестированы миллиарды долларов. Разработка программ, облегчающих производство поддельных видео, привела к увеличению использования ИИ для создания дипфейков для широкой публики. Даже сейчас, помимо манипуляций с видео, были случаи, когда создавался аудиодипфейк, сформировать который ещё проще.
Инцидент с аудиодипфейком президента США Джо Байдена, распространённым в Нью-Гэмпшире и призывавшем людей не голосовать на праймериз в штате, охватил более 20 000 человек. Персона, стоявшая за этой манипуляцией и потратившая 150 долларов на её производство, Стив Крамер, заявил, что это был акт гражданского неповиновения, чтобы привлечь внимание к рискам, связанным с ИИ в политике, и к необходимости разработки нормативно-правовых актов, касающихся ИИ.
Ещё один яркий пример, показавший, какую опасность дипфейки могут представлять для демократии, — аудиодипфейк словацкого политика Михала Симецки. Записанное голосовое сообщение было загружено на Facebook за 48 часов до выборов в Словакии: якобы Симецки обсуждал мошенничество на выборах с журналисткой Моникой Тодовой. Аудиоподделка мэра Лондона Садика Хана — пример того, как фейки могут спровоцировать серьёзные политические и социальные последствия. Аудиозапись Хана стала вирусной в начале ноября 2023 года — на ней он оскорблял День перемирия [рус] (празднование, посвящённое моменту окончания Первой мировой войны) и требовал, чтобы пропалестинские марши имели приоритет.
Помимо аудиодипфейков с участием политических деятелей, в интернете продолжают циркулировать видеодипфейки со знаменитостями. Например, есть поддельные ролики с известным голливудским актёром Томом Хэнксом, в которых его ИИ-версия продвигает стоматологический план, или с популярным американским YouTube-блогером MrBeast, который якобы устраивал «крупнейшую в мире раздачу iPhone 15».
Вирусными стали также дипфейки певицы Тейлор Свифт, опубликованные в начале этого года в нескольких социальных сетях — X (ранее Twitter), Instagram, Facebook и Reddit. Дипфейк со Свифт просмотрели более 45 миллионов раз примерно за 17 часов, пока его не удалили из X.
Коллективная инициатива против ИИ-фейков
«Техническое соглашение по борьбе с мошенническим использованием ИИ на выборах 2024 года», о котором было объявлено на Мюнхенской конференции по безопасности, предусматривает, что 20 крупных игроков, включая Adobe, Google, Microsoft, OpenAI, Snap Inc. и Meta, обязуются использовать передовые технологии для обнаружения и противодействия вредоносному контенту, созданному ИИ с целью ввести избирателей в заблуждение, а также для поддержки усилий по повышению осведомлённости общественности, медиаграмотности и устойчивости общества. Впервые 20 разных компаний объединились против мошенничества, созданного ИИ.
Компании-участники подписались под восемью конкретными обязательствами по снижению рисков, связанных с вводящим в заблуждение контентом с использованием ИИ. Эта инициатива технологического сектора направлена на борьбу с изображениями, видео и аудио, созданными ИИ, которые могут ввести избирателей в заблуждение относительно кандидатов, должностных лиц избирательных комиссий и процесса голосования. Однако соглашение не требует полного запрета такого контента.