Многие технологии были спроектированы так, чтобы казаться невидимыми. На поверхности лишь результат их действия. Но что если разобраться в работе алгоритмов – насколько они нейтральны, как подталкивают пользователей к тем или иным действиям?
Скандал с Cambridge Analytica показал, что пользовательские данные – это не столько «новая нефть», сколько новый объект политического воздействия. И это не единственный пример, когда платформы и другие участники индустрии подвергаются критике за свое политическое влияние.
YouTube сейчас является объектом пристального внимания исследователей, журналистов и активистов. Все они хотят понять, какую медиасреду создает платформа и как дизайн алгоритмов влияет на политические предпочтения и политический выбор. И большинство согласны с тем, что радикальный контент, зачастую правой направленности, получает приоритет в рекомендациях. Это связано с отсутствием достаточного регулирования на платформе со стороны компании, а также с дизайном алгоритмов, цель которых – максимум прибыли.
Истории платформенной радикализации
Проблемы YouTube хорошо иллюстрирует история 26-летнего Калеба Кейна, рассказанная The New York Times в июне 2019 года. Молодой человек «упал в кроличью нору альт-райт видео», просматривая контент популярных правых блогеров, критикующих современный феминизм, левую проиммиграционную политику и дискурс социальной справедливости.
В статье также визуализируются изменения в истории просмотров Кейна, показывающие его постепенную радикализацию. И эта история не единственная: схожие вещи можно увидеть в рассказе 15-летнего Дэвида Шерратта. И на виду лишь верхушка айсберга. Согласно отчету Pew Research Center, в 2018 году 85% подростков в США использовали YouTube, что делает его самой популярной платформой.
Алгоритмы имеют прямое отношение к пользовательскому опыту на платформе. Долгое время YouTube максимизировал просмотры, предлагая пользователю видео, которые он выберет с большей вероятностью. Но в марте 2012 года компания изменила свою политику, решив вместо этого максимизировать время, которое люди проводят за просмотром.
По выражению бывшего инженера платформы Гийома Часло, бизнес-модель заключалась в том, чтобы стимулировать людей проводить больше времени онлайн. Это, в свою очередь, увеличивает количество рекламы и, соответственно, объем получаемой прибыли. Многие создатели контента правого сектора, в отличие от своих политических оппонентов, смогли капитализировать эти изменения.
Они создавали продолжительные видеоэссе и стримы. Таким образом, пользователи, часто сами того не осознавая, переходили от политически нейтральных видео к консервативным или даже оказывались на каналах с откровенно расистскими и экстремистскими идеями.
Исследования правого YouTube сегмента
Информации о том, как функционирует платформа, мало. Исследователи пытаются понять, какое политическое влияние оказывает YouTube. Так, эксперты Беркмановского центра изучения Интернета и общества в Гарвардском университете на основе анализа 13 529 каналов выяснили: рекомендательные системы платформы формируют «информационный пузырь» политически правых каналов. Даже несмотря на разницу во взглядах авторов, они оказываются связанными благодаря алгоритмам.
Ребекка Льюис из некоммерческого исследовательского института Data & Society изучала, какую медиасреду выстраивает YouTube. Оказалось, на платформе формируется «альтернативная сеть влияния», в которой политические инфлюенсеры «продвигают ряд политических позиций, начиная с основных версий либертарианства и консерватизма, вплоть до открытого белого национализма».
Льюис изучала контент правых каналов и смотрела на то, как выстраиваются сети между ними, например, при выпуске совместных видео. В этих сетях появляются разные реакции на видео. Но, как пишет журналист Эзра Клейна, комментаторов объединяет то, что они скрывают идеи поддержания существующего социального порядка (например, гендерное и расовое неравенство) за форматом притягательной, разоблачающей левую идеологию риторики и контркультурного брендинга.
Алгоритмическая прозрачность
Такая политика YouTube получает ответ в виде инициатив, пытающихся сделать платформу более понятной и подотчетной. Так, бывший инженер YouTube Гийом Часло сейчас стал одним из авторов проекта AlgoTransparency, цель которого – «информировать граждан о том, как алгоритмы формируют доступ к информации». Авторы проекта анализируют, какие видео чаще всего рекомендуются пользователям на YouTube. Инструментарий сайта также позволяет посмотреть результаты по самостоятельно выбранному запросу на определенную дату.
Еще по теме: Не улыбайтесь, вас пытаются распознать
Google также постоянно предпринимает усилия по регулированию YouTube. В феврале 2019 года после скандала с блогером, выложившим видео суицида, в официальном блоге компании появилось сообщение. Оно давало понять, что теперь YouTube будет уменьшать рекомендации для видео, которые «могут дезинформировать пользователей, предлагая к просмотру видеоматериалы, пропагандирующие якобы чудотворное исцеление, заявления о том, что Земля плоская, или откровенно ложные утверждения о таких исторических событиях, как 11 сентября». В июне этого же года компания пообещала «пристальнее взглянуть на харассмент».
В августе журналисты The New York Times рассказали, как YouTube способствовал правому перевороту в Бразилии. В частности, он привел к власти президента Жаира Болсонару. Последний, к слову, утверждает, что без социальных медиа он не смог бы занять эту должность. В то же самое время многие исследования, в том числе известный проект антрополога Дэниела Миллера «Why We Post», говорят о том, что люди пользуются социальными сетями по-разному. Контекст имеет значение и формирует локальные особенности того, какие практики формируются вокруг, казалось бы, универсальных платформ. Несмотря на это, парадоксально, что YouTube производит схожий эффект во многих странах, а именно – популяризацию правых взглядов.
И проблема здесь состоит не в том, что алгоритмы были спроектированы целенаправленно с приоритизацией подобного контента. Скорее, проблема заключается в сочетании бизнес-модели платформы и более глобальных социальных и политических изменений. Но сейчас уже ясно то, что социальные медиа сделали политику другой. Если прежние политические институты имеют значение для граждан, то за изменениями в будто бы нейтральном технологическим дизайне необходимо следить всем заинтересованным сторонам.