Как связаны разработка этики искусственного интеллекта и вызовы гражданского общества

И какова роль больших технологических компаний

В момент, когда вас смущает действие другого человека, вы оказываетесь в этической дилемме: на чьей быть стороне, поддержать или пролистнуть, перепостить или нет? Шеймить ли? А вслух? Или когда возникают такие вопросы: включить ли геометку, принять all cookies или выборочно, как не попасться на камеры распознавания, как избежать установки российского сертификата безопасности? Или даже такие: в каком роде обратиться к персоне и в каком числе?

В повседневной жизни большинство мелких выборов остаются само собой разумеющимися и принимаются как данность. А если включается удивление, сопротивление или несогласие, то это хороший повод для рефлексии по поводу собственных установок и взглядов. 

Но еще этический выбор — это и гражданский выбор. Выстраивая свое близкое и дальнее окружение, мы, как правило, ориентируемся на схожие убеждения и взгляды, а также на мелкие повседневные выборы, которые отражают действующие установки и нормы. Сложнее, когда наши взгляды противоречат доминирующим в обществе нормам, и тем более — когда мы пытаемся эти общепринятые нормы изменить. 

Весь гражданский активизм именно об этом: как поменять ситуацию, чтобы она стала новой нормой повседневных выборов.  

И ровно эту идею пересмотра норм подхватили в технологической сфере. Как и почему цифровые технологии стали поднимать этические вопросы, вы можете прочитать в предыдущем тексте — а сейчас я хочу рассказать, какие важные для гражданского общества проблемы отражаются в дискуссиях по поводу этики искусственного интеллекта. И какие ответы уже есть. 

На днях я познакомилась с одним из консультантов по вопросам этики цифровых технологий, а он решил задать мне каверзные вопросы, чтобы проверить, понимаем ли мы друг друга. Вопросы были примерно такие: 

  • как Всемирный экономический форум с обсуждениями роботизации и потерей рабочих мест заставляет паниковать весь мир?
  • почему попытки дать определения тому, что такое «робот», «искуственный интеллект» и «человек», оборачиваются еще большими разногласиями?
  • есть ли принципиальная разница между цифровым тоталитаризмом в Китае или в России и цифровой монополией IT-гигантов?

Эти вопросы складываются в большой метавопрос: какое отношение обсуждение этических аспектов и ее институционализация в сфере искусственного интеллекта имеет к гражданской активности?

Ответ первый. Этика искусственного интеллекта — не проблема, а обязательный пункт обсуждения

Начнем с WEF: мощным бустером обсуждения этики технологий (как и роботизации, цифровизации, а дальше и алгоритмов) стал Всемирный экономический форум 2018 года.

Речь шла не столько об этике технологий, сколько о социальных эффектах роботизации и влияния технологий на рынок труда. Среди прочего в докладе предсказывали, что автоматизация изменит режим работы, появятся новые должности и роли, а также что изменится соотношение производительности роботов и людей — и даже такие человеческие функции, как коммуникация, координация, управление, принятие решений, будут автоматизироваться. 

Дальше медиа запустили волну обсуждений в духе неолуддитов. Но при этом масштаб Всемирного экономического форума заставил отреагировать на страхи и больших игроков — понять, как перестраивать рынок труда так, чтобы внедрение технологий не виделось как угроза человеку и его труду. Отсюда возникли социально-этические дилеммы по поводу распределения ответственности, делегирования и прочего. Сейчас паника в отношении роботизации и технологизации уточнилась и утончилась: вопросы звучат конкретно, а социальные эффекты стали обсуждать обоснованно. Это и есть цель внедрения этики в повестку технологического развития — задавать и обсуждать вопросы, искать решения, а не создавать панику. 

Как и в гражданском обществе — не сеять панику, а вести диалог. И да, бойтесь СМИ, которые этому диалогу мешают, а не участвуют в нем.

Ответ второй. Этика искусственного интеллекта — это не результат, а процесс

Обсуждение этических проблем в технологиях не стоит на месте. К счастью, многие уже перешли от вопросов в духе «чья жизнь дороже» или «кого лучше задавить» к «как бы нам учесть риски». Ответственность за поиски оптимальных стратегий постепенно распределяется. Погоня за как можно более точными определениями переходит на уровень поиска обобщений и работающих рекомендаций. Грубые этические дилеммы принимаются, раскладываются на более конкретные вопросы, чем просто «хорошо» или «плохо». Более или менее все согласны с тем, что универсальных решений нет, но общие ориентиры — есть. Они выражены, например, в рекомендациях Евросоюза по разработке «Благонадежного ИИ» (Trustworthy AI). 

Эксперты в докладе Евросоюза разделяют принципы благонадежности — и этичности. Вот что вошло в общие требования к благонадежности ИИ: человеческое управление и надзор, техническая жесткость и безопасность, приватность и управление данными, прозрачность, разнообразие, не-дискриминация и справедливость, благосостояние окружающей среды и общества, подотчетность.

Здесь сосредоточены технические и нетехнические требования к разработке систем, основанных на ИИ, причем на всех этапах — от дизайна до внедрения и сопровождения. И основаны они на базовых этических принципах: уважение человеческой автономии, предотвращение вреда, справедливость, обоснованность. Таким образом им удалось вывести в качестве этических принципов не дилеммы, а ценностные установки, которые произрастают из базовых прав человека.

Важно, что реализация этих требований и принципов — это итеративный процесс, вшитый в буквально все этапы разработки алгоритмов. Даже если цель сформулирована как итог — «благонадежный ИИ», — это не означает, что после разработки работа над настройкой этичности заканчивается. Напротив, она продолжается в зависимости от произведенного эффекта и соответствия изначальным требованиям. 

Ответ третий. Этика искусственного интеллекта — это не капитал. Или..?

Как и любые нетехнологические вмешательства в инженерные решения, этический вопрос сильно усложняет жизнь разработчиков. Кроме работы над сложными задачами, разработчики алгоритмов оказываются перед необходимостью принимать решения по поводу того, о чем они не имеют представления.

Как показывают в своем исследовании Джейкоб Меткалф, Эммануэль Мосс и дана бойд, компании чаще всего доверяют своим сотрудникам распознавать и оценивать этические дилеммы, используя для этого… личное суждение. Более продвинутые корпорации могут позволить себе специально обученных людей, которые занимаются этическими вопросами отдельно. Но и они оказываются в определенной ловушке, формулируя необходимость соблюдения этики в терминах последующей выгоды от улучшенных технологий. Чтобы объяснить это, авторы выделяют три логики, которые влияют на восприятие этики в технологиях: 

  • солюционизм (технологии могут решить все социальные проблемы!);
  • меритократия (правильные решения могут быть приняты теми, кто обладает наибольшими возможностями!);
  • рыночный фундаментализм (рынок сам разберется, какие идеи лучшие!). 

Этика в таких обстоятельствах становится тем, на что тратятся ресурсы, но нет очевидной пользы. А поскольку внятных и хорошо работающих «лучших практик» пока нет в индустрии, то этика становится разменной монетой в игре на повышение статуса компании (см. Ответ 4) и предлогом для аргумента не-мешай-работать-инженерам.

Итого: этика ИИ не оказывается в повестке разработки, а остается каким-то непонятным, даже недо-сервисом, который плохо капитализируется и вообще лишний. Как, кстати, гражданское общество в некоторых странах.

Ответ четвертый. Мимикрия под этические стандарты разных рынков (ethic-washing)

Яркий пример — скандал в Google с Тимнит Гебру, о котором писал мой коллега Дмитрий Муравьев. Гебру уволили за публикацию исследования об этических и экологических последствиях работы алгоритма NLP (обработка естественного языка), разработанного внутри Google. Впрочем, об этом феномене также рассказывают Меткалф, Мосс и бойд: деятельность по обсуждению этических вопросов в компании может выглядеть более активной и осмысленной, чем есть на самом деле.

То есть в этой деятельности можно найти все элементы публичного присутствия, видимости присутствия этики в повестке компании — «от выпуска официальных документов и сообщений в блогах, в которых провозглашается поиск компаниями лучших практик, к корпоративной реорганизации, которая продвигает или создает новую этическую инициативу». На деле же такая деятельность может не оказывать никакого эффекта на разработку. 

Но мне кажется, что до какого-то момента подобные истории о повышенной и не всегда оправданной видимости — неотъемлемый этап в институционализации этической повестки (см. Ответ 1). Компании пытаются, не справляются и предпринимают новые попытки. Правительства документируют — сначала все подряд, потом уточняют. Пользователи и НКО сначала хихикают и игнорируют, но постепенно проникаются идеями и начинают высказываться на тему этики. Главное, чтобы в случае с гражданским обществом это не превратилось в civil-washing. 

Будьте с нами на связи, независимо от алгоритмов

Telegram-канал E-mail рассылка RSS-рассылка
Как победить алгоритмы: прочитай инструкции, как настроить приоритетный показ материалов в социальных сетях и подключить RSS-ленту.