Бегущий искусственный интеллект

Запущена кампания против системы распознавания лиц. Фото с сайта "Роскомсвободы".

Права человека в цифровую эпоху требуют защиты, технология распознавания лиц и боевые роботы должны быть запрещены – с такими требованиями выступают правозащитники.Интерес к теме искусственного интеллекта со стороны общественников резко появился не так давно. Еще в прошлом году не было…

Права человека в цифровую эпоху требуют защиты, технология распознавания лиц и боевые роботы должны быть запрещены – с такими требованиями выступают правозащитники.

Интерес к теме искусственного интеллекта со стороны общественников резко появился не так давно. Еще в прошлом году не было больших публичных обсуждений и дискуссий, а сейчас «Московская хельсинкская группа» проводит серию встреч, активисты запускают петиции.

С одной стороны, может показаться, что технологии во всем полезны и приводят только к развитию, но в то же время они могут привести к формированию расистских, сексистских позиций с помощью алгоритмов, или обернуться цифровой диктатурой. Вспомнить хотя бы, как в 2018 году активиста «Другой России» Михаила Акселя задержали в метро по сигналу с видеокамеры, опознавшей его по ориентировке Центра «Э». И он не был в розыске.

Вопрос этики технологий звучит все громче. Команда МХГ посвятила ежегодные Богоразовские чтения теме прав и свободы в цифровом мире и вопросам того, что происходит с правом на жизнь и на неприкосновенность частной жизни. Беспокоят проблемы автономных систем вооружения (работающих без какого-либо участия человека). Активистка Алена Попова представляет кампанию Campaign to Stop Killer Robots. Пугает сложность работы алгоритмов глубинного обучения (так называемый «черный ящик») и отсутствие ценностей у роботов. Именно поэтому активисты выступают против боевых роботов и призывают мировое сообщество объединиться, решать вопрос на уровне международного права.

Активисты уверены, что ответственность будет перекладываться с человека на алгоритмы, а военные преступления могут легко превратиться в «издержки войны». Игнорировать этические вопросы в технологиях становится просто опасно для развития общества.

Правозащитники беспокоятся за человеческую жизнь, права и свободы, перепридумывают новый кодекс, которые поможет гражданам чувствовать себя защищенными, а не героями романа Оруэлла.

Наша команда посвящает конференцию и мастерскую теме искусственного интеллекта: российские исследователи, социологи и активисты вместе с экспертами из Центра изучения будущего интеллекта CFI Кембриджского университета разбираются, как меняется общество. 

Осенью в России почти в одно время происходит запуск двух общественных кампаний против распознавания лиц: первая петиция команды активистки Алены Поповой «мое лицо – мои данные» и другая – от специалистов «Роскомсвободы».

Аргументы таковы: граждане не давали согласие (по закону необходимо давать согласие на обработку персональных данных, но с системой распознавания это не работает), злоупотребления, утечки данных, массовая слежка, изменение поведения и то, что вас могут задержать по ошибке (процент ошибочного распознавания достигает 35%, влияют национальность, возраст и пол). На сегодня две петиции подписали около шести тысяч человек. И пока МВД расширяет систему распознавания лиц в Москве, в Калифорнии полиции запрещается использовать технологию распознавания лиц.

В ноябре редакция Теплицы будет снова разбираться в теме искусственного интеллекта как технологии, которая несет прогресс и в то же время опасность. Все материалы по этой теме можно будет найти по тегу.

Разобраться во всем спектре технологий, которые используются уже сейчас, и понять, насколько они этичны, вы можете в игре «2024». Представьте себя на месте премьер-министра и попытайтесь сделать так, чтобы технологии не навредили.

Еще по теме

Будьте с нами на связи, независимо от алгоритмов

Telegram-канал E-mail рассылка RSS-рассылка
Как победить алгоритмы: прочитай инструкции, как настроить приоритетный показ материалов в социальных сетях и подключить RSS-ленту.