Злой близнец. ИИ в российской пропаганде

пропаганда

Как российские власти хотят влиять на общественное мнение с помощью искусственного интеллекта, и как этому противостоять

«‎Елена Зеленская, жена президента Украины Владимира Зеленского, якобы купила уникальный спорткар Bugatti Tourbillon за 4,5 млн евро (4,8 млн долларов) — на деньги, полученные Украиной по программе американской военной помощи». Видеоисточник этой новости, сгенерированный нейросетью, быстро разоблачили как фейк, но 12 млн пользователей X успели его увидеть. Как и аудитория прокремлевских СМИ.

С марта по май 2024 года OpenAI пресекла работу пяти «‎тайных операций по оказанию влияния», две из которых связала с Россией. Из всех вариантов неэтичного использования ИИ самый популярный — дипфейки на политические темы. Зачем это делается и насколько эффективно — читайте ниже.

Ключевые выводы:

1. Инструменты ИИ обычно применяются для повышения эффективности существующих методов информационного воздействия, а не изобретения новых.

2. Основная аудитория операций по оказанию влияния — европейские и американские граждане, а проводят их аффилированные с государством структуры.

3. ИИ используется для генерации и перевода текстов, изображений и видео, отладки кода и комментирования. Комментарии проще распознать, чем видеодипфейки.

4. Подобные проекты не сильно увеличивают аудиторные охваты и почти не повышают просматриваемость, но измерить, как они влияют на пользовательское восприятие политической повестки, сложнее. 

5. Для русскоязычной и не русскоязычной аудиторий генерировались разные сообщения, адресованные разным пользовательским болям.

6. Цель этих кампаний — манипулирование общественным мнением и внесение разногласий в дискуссии. 

Цели

Под интригующим «‎тайные операции по оказанию влияния» скрываются действия, знакомые всем, кто хоть раз слышал о ботофермах. Цель этих операций — манипулирование общественным мнением и влияние на политическую повестку. Манипулирование не должно быть явным: комментарии в поддержку России вряд ли вызовут положительный отклик иностранной аудитории, но призыв сосредоточиться на внутренних проблемах имеет на это шансы. Каждая операция представляет собой кампанию по достижению внешнеполитической цели: ослабление поддержки Украины, влияние на исход выборов в США и тд. Некоторые операции меняют мишень в зависимости от обстановки, к примеру, накануне выборов в Европейский парламент.

Улучшение имиджа России — далеко не самая главная цель таких мероприятий. ‎Как правило, их фокус — на снижении доверия государственным и международным институтам, внесении раскола в общественное мнение и подчеркивании необходимости заняться своими внутренними проблемами, а не поддерживать Украину. Чтобы выглядеть естественно, участникам кампаний нужно понимать настроения внутри страны, грамотно писать и мимикрировать под среднестатистического пользователя.

О том, успешны ли такие кампании, можно судить не только по количественным показателям вроде числа шеров и лайков. Обычно публикации и комментарии про бесполезность войны в Украине и коррупцию правительств получают мало взаимодействий, так как выглядят неоригинально и довольно топорно. Но когда их много, создается информационный пузырь, в который попадают пользователи. У них возникает ощущение, что они одиноки в своих убеждениях и не в силах ничего изменить. Сомнения, путаница, недоверие друг другу и СМИ — неблагоприятная почва для гражданского общества. Это приводит к политической апатии и позиции «‎не все так однозначно». 

Методы

Европейские службы по защите от иностранного вмешательства назвали организаторами операций «Агентство социального проектирования» и «‎ГК СТРУКТУРУ», которые сотрудничают с российскими властями и находятся под санкциями. Они применяли ИИ не для создания принципиально новых тактик, а скорее для оптимизации старых. Среди самых популярных направлений — генерация комментариев и статей на разных языках и клонирование сайтов. 

Вторая схема получила название «‎Доппельгангер» (с нем. Doppelgänger — «двойник», темная сторона личности). Она означает копирование сайта известного СМИ, таких как Le Monde, Der Spiegel и тп, и наполнение его прокремлевским контентом. Пользователи думают, что зашли на привычный веб-ресурс, и читают материалы, продвигающие российскую повестку. Авторство таких материалов может приписываться реально существующим журналистам. Иногда вместо дублирования создается новое «‎СМИ» с названием, имитирующим известные медиа, например, Jerusalem Herald Tribune или Patriotic Review. О связи поддельных медиа-сайтов с Россией порой можно догадаться по названию: notrepays today, franceeteu today (по аналогии с Russia Today). В ходе одной из кампаний по оказанию влияния 120 фейковых сайтов были созданы всего за три дня, с 10 по 12 мая 2024 года.

Для создания, перевода и корректуры статей для сайтов-самозванцев применялся ИИ. В некоторых случаях искусственный интеллект ходил по настоящим новостным сайтам, выкачивал оттуда материалы и переписывал их в правом политическом ключе. Также с помощью LLM наполнялись страницы «‎СМИ» на Facebook. Комментарии к этим постам зачастую тоже генерировались ИИ, чтобы имитировать вовлеченность аудитории. 

Короткие комментарии, сгенерированные искусственным интеллектом, распространялись в Telegram, X (Twitter), Instagram. Обычно они критиковали действия Украины и ее поддержку странами Запада, но воздействовали на разные болевые точки. Русскоязычные «‎комментаторы» обвиняли президента Украины в коррупции и предательстве интересов своих граждан в угоду Западу. Англоязычные указывали на проблемы с иммиграцией, экономические трудности, в частности, из-за антироссийских санкций, и требовали сосредоточиться на внутренней, а не внешней политике. Целевую аудиторию, на которую были рассчитаны эти комментарии, составляли жители России, Украины, США, Молдовы и стран Балтии. OpenAI назвала операцию по комментированию «‎Плохая грамматика».    

Кроме этого, LLM использовались для отладки кода для автоматического постинга в Telegram и для генерации видео. Крупные text-to-video модели блокируют промпты про политиков, но ролики необязательно целиком должны быть сгенерированы нейросетью. Достаточно воссоздать голос, благо образцов голоса известных личностей в открытом доступе достаточно, и воспользоваться технологией замены лиц (face swap).

Видео-дипфейк про Байдена в инвалидном кресле, который раздает деньги нелегальным мигрантам и украинцам вместо американцев, набрало 5 млн просмотров и 6,5 млн шеров в X всего за месяц. Фильтры соцсетей, которые должны выявлять сгенерированные видео, не сработали: операторы обрезали несколько видеокадров на миллисекунды так, чтобы человеческий глаз ничего не заметил.  Из-за этих манипуляций системы защиты от злоупотреблений распознали видео как уникальное. Экспертам не удалось установить, какую нейросеть использовали злоумышленники. 

Как распознать  

Корпорации заявляют, что борются с использованием своих продуктов в политических целях. В случае с моделями text-to-image они более-менее контролируют ситуацию: запретить генерировать изображения публичных лиц и политиков технически намного проще, чем банить создание комментариев для спора в интернете. Meta сотрудничает с независимыми командами фактчекеров, помечающих ИИ-сгенерированный контент и дезинформацию, Amazon использует искусственный интеллект для анализа подлинности отзывов. Российский проект bot blocker | блокировщик ботов активно занимается разоблачением фабрик троллей и помогает журналистам-расследователям выявлять дезинформацию в X (Twitter). Еще один российский проект, бот «‎Насквозь», анализирует тексты статей и показывает наличие и типы эмоциональных манипуляций.  

Для обнаружения операций по прикрытию OpenAI разработала и запустила отдельные модели. Они анализировали большой объем данных и находили паттерны использования ИИ злоумышленниками. Но самые заметные ошибки были и допущены, и обнаружены людьми. Они забывали удалять системные сообщения об отказе из публикуемых постов, оставляли антиукраинские комментарии к видео про Газу. 

Но можно не надеяться на техногигантов и разобраться самостоятельно. Инструменты, которые идентифицируют дипфейки, часто основаны на тех же принципах машинного обучения, что и нейросети, которые их создают. А именно, GANs*, классификации, предсказания (вероятность появления определенного слова вслед за каким-либо словом в предложении) и тд. Hive и AI Voice Detector анализируют видео и аудио на предмет ИИ-манипуляций. Scribbr, zeroGPT и QuillBot оценивают вероятность того, что текст был сгенерирован нейросетью, и помогают перефразировать его. Причем Scribbr и zeroGPT даже распознают русский язык. Illuminarty, Is It AI выполняют аналогичную задачу с картинками, правда, уровень точности у них ниже, чем у текстовых «‎ИИ-следователей». А вот здесь можно пройти тест и узнать, насколько хорошо вы сами способны отличить настоящие фото от фейковых.

Кроме этого, полезны такие простые инструменты, как обратный поиск и метаданные. Если вы сомневаетесь в подлинности изображения, поищите его в Google Images, TinEye или Yandex. Выдача результатов по сгенерированным картинкам будет тоже состоять из сгенерированных картинок или изображений, не похожих на исходное. Метаданные, или данные EXIF, («‎Свойства» загруженного изображения) показывают, на какую камеру был сделан снимок, время экспозиции и тд. В случае со сгенерированным изображением, этой информации не будет. Правда, способ не стопроцентный: некоторые соцсети удаляют метаданные фотографий при загрузке на их сервера, и таким же образом иногда поступают  фотографы и художники перед загрузкой своего творчества в интернет. 

Насколько успешными будут операции по оказанию влияния, зависит не только от цифровой грамотности пользователей, но и от провайдеров генеративного ИИ, которые позволяют создавать дипфейки. А еще от политики соцсетей, в которых это творчество находит свою аудиторию. Если создатели инструментов будут вставлять машиночитаемые водяные знаки во все генерируемые материалы, а соцсети выявлять и блокировать аккаунты, которые постят такой контент, операций по оказанию влияния можно не опасаться. 

*GAN (Generative adversarial network, генеративно-состязательная сеть), представляет собой принципы и алгоритмы машинного обучения, которые основаны на антагонизме двух нейронных сетей. Модель генерирует что-либо и одновременно критикует саму себя, отсеивая неправдоподобные, непохожие результаты.

Источники

Political deepfakes top list of malicious AI use, DeepMind finds 

A Russian Propaganda Network Is Promoting an AI-Manipulated Biden Video | WIRED 

Russia-Linked CopyCop Expands to Cover US Elections, Target Political Leaders | Recorded Future

A GAN-Based Model of Deepfake Detection in Social Media — ScienceDirect 

How to Detect AI-generated Content 

Meet Antibot4Navalny: the mysterious researchers exposing Russia’s war on truth — The World from PRX 

Threat Intel Report — AI and Covert Influence Operations 

Ex posed: How Russia tries to exert influence on public opinion in Israel 

Будьте с нами на связи, независимо от алгоритмов

Telegram-канал E-mail рассылка RSS-рассылка
Как победить алгоритмы: прочитай инструкции, как настроить приоритетный показ материалов в социальных сетях и подключить RSS-ленту.