Детектор лжи

Как обнаружить пропаганду в тексте с помощью технологий

Интерес к изучению пропаганды вырос после начала полномасштабного вторжения России в Украину. Исследователи и противники войны пытались понять, почему она работает, хотя в открытом доступе есть доказательства ее неправоты, и как ей противостоять. Но качественную пропаганду очень сложно заметить и в информационной войне почти каждый стал ее жертвой. Читайте в новом материале «‎Теплицы», могут ли технологии помочь с пониманием того, что автор текста вами манипулирует.  

Пропагандистские приемы

Чаще всего авторы пропагандистских текстов используют такие приемы, как искажение информации или недоговаривание, давление на эмоции, чрезмерное упрощение, деление на своих и чужих, конспирология, логические уловки*. Эти методы эффективны, поскольку воздействуют на инстинкты: снижают неопределенность, чувство ответственности и канализируют недовольство ситуацией. При беглом чтении тезисы таких текстов кажутся вполне обоснованными, к тому же, люди считают, что пропаганде подвержены все остальные, но не они сами.  

Например, в фильме «‎Иноагенты» интервью с Леонидом Гозманом перемежается с кадрами очередей и пустых магазинов из 90-х. Закадровый голос рассказывает про связь Гозмана, признанного иноагентом, с РАО ЕЭС. У большинства россиян плохие воспоминания о том времени, и в тяжелой ситуации они обвиняют олигархов, Анатолия Чубайса, в том числе. Таким образом, проводится параллель между разбогатевшими тогда людьми и современными иноагентами, которые якобы ненавидят свою страну и не разделяют боль ее граждан.   

Чтобы автоматически выявлять пропаганду в тексте, надо сначала определиться, что считать пропагандой. Здесь у исследователей нет консенсуса: им нужно определять, является ли текст ангажированным или просто рассказывает о конфликте, что считать объективной подачей, будет ли текст пропагандистским, если он цитирует цитаты пропагандистов и тд. А в случае с комментариями — разжигает ли владелец аккаунта спор намеренно или просто высказывает своё мнение. А разбить пропагандистские приемы по категориям и показать модели, как вычленять их из текста, еще сложнее. Поэтому мало размеченных, то есть классифицированных и аннотированных данных, на которых можно обучить модель. Для русского языка их еще меньше. Один из немногих датасетов с выделенными манипулятивными приемами — подготовленный для семинаров по семантическому анализу SemEval

*Логические уловки, или ошибки (англ. logical fallacies) — некорректные умозаключения, которые люди иногда допускают в процессе мышления, а пропаганда использует намеренно. Есть известный список логических заблуждений в оригинале на английском, а здесь на русском.

Инструменты 

Программы, которые обнаруживают пропагандистские обороты в тексте, как правило, распознают одну или несколько манипулятивных техник: использование эмоционально окрашенных слов, переход на личности и тп. Наиболее популярный способ выявления «‎нечестной игры»  — детекция аккаунтов троллей, распространяющих проплаченную информацию. 

Но фейки необязательно означают, что текст пропагандистский. «‎Хорошая» пропаганда не договаривает, утрирует, выдергивает из контекста, но далеко не всегда выдает ложь за правду. Например, прогосударственные СМИ или боты обвиняют неугодного человека в чем-то, вызывающем общественное осуждение, например, распутстве. Как правило, эти утверждения не имеют ничего общего с реальностью, но пробуждают негативную реакцию и активные дискуссии среди сторонников и противников версии. Пока жертва доказывает свою невиновность, неприятные ассоциации всплывают каждый раз при упоминании имени этого человека. Этот прием называется «‎метод гнилой селедки»

Из-за ореола манипуляций на выборах 2016 года в США стали набирать популярность инструменты для разоблачения фейков. Особенно высокая активность по выявлению ненастоящих новостей и аккаунтов развернулась в X (Twitter). Среди соответствующих инструментов — Botometer X, который показывает вероятность того, что пользователь — бот, Bot Sentinel, который помечает аккаунты как проблемные, достоверные и удовлетворительные. 

Для Telegram тоже есть такой инструмент: Бот-антипровокатор. Он распознает в чатах провоцирующие и агрессивные комментарии, отмечает их для модераторов и удаляет. Чтобы получить к нему доступ и установить, нужно написать создателям на почту [email protected].

Если вы хотите проверить нейтральность какого-то одного текста, то можно скормить его онлайн-сервисам, таким как ClaimBuster или Factiverse. Они допускают погрешности, но подчеркивают речевые приемы, которые могут формировать мнение читателя под нужным углом. ClaimBuster выделяет в тексте утверждения, которые выглядят голословно и требуют проверки, у него также есть API. Например, в материале РИА Новостей про интервью Маргариты Симоньян ClaimBuster выделил такие тезисы, как «‎Америка привыкла в силу своей истории зарабатывать на войнах огромные деньги: зарабатывают определенные круги, определенные элиты, определенные финансовые воротилы, да и вся страна тоже», «Россия не захочет «демократию», как на Украине‎» и др. 

Есть продукты для анализа общей картины. Full Fact  дает доступ по запросу к своим инструментам автоматического фактчекинга, Google Fact Check Tools собирает материалы разных фактчекинговых СМИ. Perspective, построенный на моделях машинного обучения, определяет токсичность и оскорбительность комментариев по шкале от 0 до 100. У него есть API для разработчиков и авторов контента. Hamilton 2.0 может пригодиться для сводной аналитики, он показывает сводку активности и самых популярных тем в пропагандистских каналах. 

Исследование пропаганды

Помимо прикладных инструментов, существуют исследовательские проекты, которые занимаются семантическим анализом пропагандистских текстов. Среди таких — Propaganda Analysis Project, Edit Wars, «‎Оплот», Ground News и др. Ground News агрегирует новости и разбивает их источники по надежности, владельцу и политическому спектру. Эти разбивки организация составляет вручную. «‎Оплот» — сообщество русскоговорящих специалистов по ИИ, изучающих пропаганду. «‎У нас три направления: определение наличия и типов манипуляций в текстах, нахождение провокационных комментариев в чатах и выделение основных тем в новостях» — рассказывает К., разработчица «‎Оплота». — «‎В работе есть четыре этапа – это 1) анализ запросов потенциальной аудитории, 2) анализ, сбор и разметка данных, 3) разработка моделей машинного обучения, 4) подача этих моделей через API или ботов, чтобы ими могли пользоваться другие разработчики, исследователи и обычные люди. Разработка идет чисто волонтёрскими усилиями».

Хотя стопроцентно надежных инструментов выделения пропаганды нет, можно применять инструменты детекции ботов и обращать внимание на проверяемость тезисов, выдвигаемых в тексте. Проверить, насколько хорошо у вас получается определять дезинформацию, можно в коротком тесте Кембриджского университета. У авторки этого материала получилось верно ответить на 13 из 16 вопросов.

Источники

Как и почему пропаганда работает в XXI веке: исследователь интернета Григорий Асмолов объясняет на примере России 

Что современная наука знает о пропаганде? Исследователь Максим Алюков собрал научные факты об устройстве пропаганды 

Когда закончится эффект российской пропаганды? 

Can GPT-4 Identify Propaganda? Annotation and Detection of Propaganda Spans in News Articles 

Computational Propaganda Theory and Bot Detection System: Critical Literature Review 

Будьте с нами на связи, независимо от алгоритмов

Telegram-канал E-mail рассылка RSS-рассылка
Как победить алгоритмы: прочитай инструкции, как настроить приоритетный показ материалов в социальных сетях и подключить RSS-ленту.