Искусственный интеллект активно используют многие контент-мейкеры, от авторов книг до создателей подкастов. Отличить сгенерированные изображения, видео и тексты от созданных человеком становится все сложнее, и все же аудитория чувствует разницу и выбирает человека. Рассказываем, почему.
Отношение к нейросетям
Сгенерированные иллюстрации и художественные изображения нравятся 56% опрошенных. Трети они нравятся даже больше нарисованных человеком. В то же время, работы, созданные человеком, вызывают более сильные и положительные эмоции, чем сгенерированные. Люди, даже не имея информации о происхождении картин, называют созданные человеком произведения более осмысленными, чем сгенерированные.
Однако, изображения не так часто выступают как самостоятельный продукт. Обычно они визуально сопровождают статьи, посты и тд. и не несут большой смысловой нагрузки. Вероятно, аудиторию меньше волнует происхождение развлекательного контента. Зато волнует художников — 74% творцов посчитали неэтичным использование ИИ для создания художественных работ. В большей степени из-за того, что модели обучались на их творчестве без их разрешения, а теперь конкурируют с ними, копируя их художественный стиль. (Мы рассказывали, как художники борются за свои права).
Люди распознают тексты нейросетей немногим лучше, чем изображения. 53% правильно определили автора текста и 48% — создателя картинки. Это уровень случайного угадывания. Процент правильно ответивших несколько увеличивается, если им предлагают оценить фото человека, а не художественное изображение, но не сильно — всего до 61%.
Большинство респондентов не хотят читать новостные статьи, написанные искусственным интеллектом. Только 20% считают, что ИИ-журналистика – хорошая идея. При этом респонденты не видят ничего предосудительного в том, чтобы ИИ повышал эффективность журналистской работы. То есть, нейросети могут помогать в создании новостного контента — например, писать краткое саммэри статей, переводить материалы и улучшать пользовательский опыт — но их применение не должно быть заметно читательскому глазу. Люди могут оценивать некоторые сгенерированные тексты, например, рекламные объявления, как более качественные, чем написанные человеком, но как только им сообщают, кто написал текст, они повышают оценку «человеческого» текста.
Несмотря на это, для редакций, особенно небольших, выгодно иметь нейросетевого сотрудника. Намного проще и быстрее отредактировать сгенерированный текст или поправить картинку, чем ждать, пока то же самое с нуля сделает человек. Такой авторский контент будет становиться более ремесленным и дорогим по сравнению со сгенерированным.
Что влияет на реакцию
Как правило, понимание технологии уменьшает подозрительность и приводит к более спокойному отношению. 67% ответивших считают, что хорошо понимают, что собой представляет искусственный интеллект. Те, у кого есть опыт использования моделей text-to-image, оценили значимость этой технологии ниже, чем те, кто ни разу не генерировал картинки. Тем не менее, у 52% опрошенных инструменты на основе ИИ вызывают тревогу, против 54%, у которых он вызывает радость и восторг.
Оптимистичнее всех настроена молодежь: 64% зумеров относятся к ИИ с энтузиазмом по сравнению с 38% людей старше 60. Те, кому меньше 28, намного чаще используют продукты и услуги, в «составе» которых есть ИИ-модели, и знают об этом. Они чаще взаимодействуют со сгенерированным контентом и лучше его распознают. Причина не только в том, что молодые люди обычно быстрее осваивают новые технологии, но и в том, что они пользуются ими на практике.
Жители стран с низким и средним Индексом развития человеческого капитала (то есть экономически менее развитые и с низким уровнем жизни) больше беспокоятся о дезинформации и влиянии ИИ на выборы, чем жители стран с высоким индексом развития. Скорее всего, это из-за того, что жители стран с низким индексом развития в целом меньше доверяют политикам и СМИ. Чем больше люди замечают фальсификаций и искажений, тем более критично они смотрят и на технологии производства и доставки контента, которые становятся частью дезинформационных кампаний.
Отчасти на реакцию влияют культурные особенности. Люди воспринимают медиапродукты, в особенности, тексты, как диалог с автором, что добавляет элемент межличностной коммуникации во взаимодействие с контентом. Представители культур, в которых важна не только вербальная коммуникация, но и личность и поведение собеседника, менее благосклонны к сгенерированным новостным сообщениям. Они оценивают как смысл сообщения, так и подачу, но алгоритмы обычно выдают сухие и лаконичные новостные тексты.
С чем связаны опасения
Людей беспокоит дезинформация: согласно половине опрошенных, искусственный интеллект усугубит эту проблему, ведь с его помощью проще создавать реалистичные фейки. По мнению респондентов, только 44% населения могут отличить фейкньюс от правды (точность своего личного фейкньюс-радара они нескромно оценили в 66%). В связи с этим, генерация новостей на чувствительные и значимые темы, как политика, вызывает дискомфорт, а вот сгенерированные заметки о спорте считаются допустимыми.
Причина не только в том, что тема спорта реже становится предметом пропагандистских манипуляций, и что в целом люди могут сами верифицировать результаты соревнований. Но и в том, что новости про статистику не нужно аккуратно, с оговорками и эмпатией, объяснять. Это особенно важно в случае с тяжелыми новостями, когда требуется ввести читателя в контекст и предоставить экспертное мнение. Впрочем, упоминание ИИ в отношении политики всегда вызывает стресс у респондентов: они видят риски искажения фактов, использования ИИ для онлайн-рекламы партий и кандидатов и тд.
Недоверие к искусственному интеллекту также связано с опасениями в его предвзятости. ИИ-модели обучались на текстах и изображениях, созданными людьми и потому иногда содержащими стереотипы и стигмы, которые модели затем воспроизводят. Респонденты из стран с высоким уровнем дохода считают, что ИИ будет дискриминировать отдельные группы людей. Впрочем, опрошенные в Таиланде, Индонезии, Перу, Бразилии и т.д. придерживаются противоположного мнения.
Свой вклад в подозрительное отношение к нейросетевым журналистам и художникам вносят и общие страхи вокруг искусственного интеллекта. В том числе, что искусственный интеллект быстро развивается и вскоре лишит работы и представителей других профессий, что с его помощью можно наводнить Интернет дипфейками и тд. Это приводит к предвзятости в оценивании сгенерированных работ по сравнению с созданными человеком, где предпочтение отдается последним.
Отдельный сложный вопрос — непрозрачность использования ИИ в медиа. Когда аудитория понимает, зачем в СМИ нужны нейросети, она чувствует себя спокойнее и понимает, чего ожидать. Но с другой стороны, осведомленность читателей о том, что новостные организации применяют ИИ, может понизить их доверие. Исследования показывали, что новости за авторством нейросетей воспринимаются как менее надежные, чем написанные человеком.
В целом, отношение к ИИ становится более настороженным: в 2021 году 39% ответили, что продукты и услуги, в которых используется ИИ, вызывают у них тревогу. А в 2023 — 52%. Для сравнения: доля тех, кто считает, что такие продукты и услуги имеют больше достоинств, чем недостатков, выросла всего на 3 п.п, с 51% до 54%. Но повышение критичности относительно возможности распознавать сгенерированные тексты и изображения могло бы снизить градус напряженности вокруг генеративных нейросетей.
Источники
How people view AI, disinformation and elections — in charts – POLITICO
Digital News Report 2024 | Reuters Institute for the Study of Journalism
Public attitudes towards the use of AI in journalism
Why generative AI scares artists but not writers
Perceptions and Realities of Text-to-Image Generation
Eyes can tell: Assessment of implicit attitudes toward AI art — PMC
Emerging generational fault lines in public opinion on Artificial Intelligence | AlgoSoc