В момент, когда вас смущает действие другого человека, вы оказываетесь в этической дилемме: на чьей быть стороне, поддержать или пролистнуть, перепостить или нет? Шеймить ли? А вслух? Или когда возникают такие вопросы: включить ли геометку, принять all cookies или выборочно, как не попасться на камеры распознавания, как избежать установки российского сертификата безопасности? Или даже такие: в каком роде обратиться к персоне и в каком числе?
В повседневной жизни большинство мелких выборов остаются само собой разумеющимися и принимаются как данность. А если включается удивление, сопротивление или несогласие, то это хороший повод для рефлексии по поводу собственных установок и взглядов.
Но еще этический выбор — это и гражданский выбор. Выстраивая свое близкое и дальнее окружение, мы, как правило, ориентируемся на схожие убеждения и взгляды, а также на мелкие повседневные выборы, которые отражают действующие установки и нормы. Сложнее, когда наши взгляды противоречат доминирующим в обществе нормам, и тем более — когда мы пытаемся эти общепринятые нормы изменить.
Весь гражданский активизм именно об этом: как поменять ситуацию, чтобы она стала новой нормой повседневных выборов.
И ровно эту идею пересмотра норм подхватили в технологической сфере. Как и почему цифровые технологии стали поднимать этические вопросы, вы можете прочитать в предыдущем тексте — а сейчас я хочу рассказать, какие важные для гражданского общества проблемы отражаются в дискуссиях по поводу этики искусственного интеллекта. И какие ответы уже есть.
На днях я познакомилась с одним из консультантов по вопросам этики цифровых технологий, а он решил задать мне каверзные вопросы, чтобы проверить, понимаем ли мы друг друга. Вопросы были примерно такие:
- как Всемирный экономический форум с обсуждениями роботизации и потерей рабочих мест заставляет паниковать весь мир?
- почему попытки дать определения тому, что такое «робот», «искуственный интеллект» и «человек», оборачиваются еще большими разногласиями?
- есть ли принципиальная разница между цифровым тоталитаризмом в Китае или в России и цифровой монополией IT-гигантов?
Эти вопросы складываются в большой метавопрос: какое отношение обсуждение этических аспектов и ее институционализация в сфере искусственного интеллекта имеет к гражданской активности?
Ответ первый. Этика искусственного интеллекта — не проблема, а обязательный пункт обсуждения
Начнем с WEF: мощным бустером обсуждения этики технологий (как и роботизации, цифровизации, а дальше и алгоритмов) стал Всемирный экономический форум 2018 года.
Речь шла не столько об этике технологий, сколько о социальных эффектах роботизации и влияния технологий на рынок труда. Среди прочего в докладе предсказывали, что автоматизация изменит режим работы, появятся новые должности и роли, а также что изменится соотношение производительности роботов и людей — и даже такие человеческие функции, как коммуникация, координация, управление, принятие решений, будут автоматизироваться.
Дальше медиа запустили волну обсуждений в духе неолуддитов. Но при этом масштаб Всемирного экономического форума заставил отреагировать на страхи и больших игроков — понять, как перестраивать рынок труда так, чтобы внедрение технологий не виделось как угроза человеку и его труду. Отсюда возникли социально-этические дилеммы по поводу распределения ответственности, делегирования и прочего. Сейчас паника в отношении роботизации и технологизации уточнилась и утончилась: вопросы звучат конкретно, а социальные эффекты стали обсуждать обоснованно. Это и есть цель внедрения этики в повестку технологического развития — задавать и обсуждать вопросы, искать решения, а не создавать панику.
Как и в гражданском обществе — не сеять панику, а вести диалог. И да, бойтесь СМИ, которые этому диалогу мешают, а не участвуют в нем.
Ответ второй. Этика искусственного интеллекта — это не результат, а процесс
Обсуждение этических проблем в технологиях не стоит на месте. К счастью, многие уже перешли от вопросов в духе «чья жизнь дороже» или «кого лучше задавить» к «как бы нам учесть риски». Ответственность за поиски оптимальных стратегий постепенно распределяется. Погоня за как можно более точными определениями переходит на уровень поиска обобщений и работающих рекомендаций. Грубые этические дилеммы принимаются, раскладываются на более конкретные вопросы, чем просто «хорошо» или «плохо». Более или менее все согласны с тем, что универсальных решений нет, но общие ориентиры — есть. Они выражены, например, в рекомендациях Евросоюза по разработке «Благонадежного ИИ» (Trustworthy AI).
Эксперты в докладе Евросоюза разделяют принципы благонадежности — и этичности. Вот что вошло в общие требования к благонадежности ИИ: человеческое управление и надзор, техническая жесткость и безопасность, приватность и управление данными, прозрачность, разнообразие, не-дискриминация и справедливость, благосостояние окружающей среды и общества, подотчетность.
Здесь сосредоточены технические и нетехнические требования к разработке систем, основанных на ИИ, причем на всех этапах — от дизайна до внедрения и сопровождения. И основаны они на базовых этических принципах: уважение человеческой автономии, предотвращение вреда, справедливость, обоснованность. Таким образом им удалось вывести в качестве этических принципов не дилеммы, а ценностные установки, которые произрастают из базовых прав человека.
Важно, что реализация этих требований и принципов — это итеративный процесс, вшитый в буквально все этапы разработки алгоритмов. Даже если цель сформулирована как итог — «благонадежный ИИ», — это не означает, что после разработки работа над настройкой этичности заканчивается. Напротив, она продолжается в зависимости от произведенного эффекта и соответствия изначальным требованиям.
Ответ третий. Этика искусственного интеллекта — это не капитал. Или..?
Как и любые нетехнологические вмешательства в инженерные решения, этический вопрос сильно усложняет жизнь разработчиков. Кроме работы над сложными задачами, разработчики алгоритмов оказываются перед необходимостью принимать решения по поводу того, о чем они не имеют представления.
Как показывают в своем исследовании Джейкоб Меткалф, Эммануэль Мосс и дана бойд, компании чаще всего доверяют своим сотрудникам распознавать и оценивать этические дилеммы, используя для этого… личное суждение. Более продвинутые корпорации могут позволить себе специально обученных людей, которые занимаются этическими вопросами отдельно. Но и они оказываются в определенной ловушке, формулируя необходимость соблюдения этики в терминах последующей выгоды от улучшенных технологий. Чтобы объяснить это, авторы выделяют три логики, которые влияют на восприятие этики в технологиях:
- солюционизм (технологии могут решить все социальные проблемы!);
- меритократия (правильные решения могут быть приняты теми, кто обладает наибольшими возможностями!);
- рыночный фундаментализм (рынок сам разберется, какие идеи лучшие!).
Этика в таких обстоятельствах становится тем, на что тратятся ресурсы, но нет очевидной пользы. А поскольку внятных и хорошо работающих «лучших практик» пока нет в индустрии, то этика становится разменной монетой в игре на повышение статуса компании (см. Ответ 4) и предлогом для аргумента не-мешай-работать-инженерам.
Итого: этика ИИ не оказывается в повестке разработки, а остается каким-то непонятным, даже недо-сервисом, который плохо капитализируется и вообще лишний. Как, кстати, гражданское общество в некоторых странах.
Ответ четвертый. Мимикрия под этические стандарты разных рынков (ethic-washing)
Яркий пример — скандал в Google с Тимнит Гебру, о котором писал мой коллега Дмитрий Муравьев. Гебру уволили за публикацию исследования об этических и экологических последствиях работы алгоритма NLP (обработка естественного языка), разработанного внутри Google. Впрочем, об этом феномене также рассказывают Меткалф, Мосс и бойд: деятельность по обсуждению этических вопросов в компании может выглядеть более активной и осмысленной, чем есть на самом деле.
То есть в этой деятельности можно найти все элементы публичного присутствия, видимости присутствия этики в повестке компании — «от выпуска официальных документов и сообщений в блогах, в которых провозглашается поиск компаниями лучших практик, к корпоративной реорганизации, которая продвигает или создает новую этическую инициативу». На деле же такая деятельность может не оказывать никакого эффекта на разработку.
Но мне кажется, что до какого-то момента подобные истории о повышенной и не всегда оправданной видимости — неотъемлемый этап в институционализации этической повестки (см. Ответ 1). Компании пытаются, не справляются и предпринимают новые попытки. Правительства документируют — сначала все подряд, потом уточняют. Пользователи и НКО сначала хихикают и игнорируют, но постепенно проникаются идеями и начинают высказываться на тему этики. Главное, чтобы в случае с гражданским обществом это не превратилось в civil-washing.