Игнорировать этические вопросы в технологиях опасно для развития общества. Однако мало просто думать про это – нужно определиться с этической системой и ее социальными последствиями. Исследователи Лилия Земнухова, Роман Малюшкин и Николай Руденко Центра исследований науки и технологий Европейского университета в Санкт-Петербурге, авторы telegram-канала WrongTech объясняют, почему важна этика в технологиях и что можно со всем этим сделать.
В 2018 году вопросы этики в разработке технологий стали одной из важнейших тем для обсуждения в индустрии. Крупнейшие ИТ-корпорации стали создавать внутренние комитеты и комиссии по данной теме. Apple, Google, Facebook, Microsoft, а за ними и другие компании попытались институционализировать «этичную разработку». С развитием технологий искусственного интеллекта компании объединяются с целью совместно решать эти вопросы, создавая сети заинтересованных.
Этика, мораль, нормы – вопросы не новые. Они всегда вызывали дискуссии. Где-то они навязанные и само собой разумеющиеся, как в регионах с сильными традиционными ценностями или жестким государственным управлением, например, в Китае. Где-то в качестве решения предлагают кодекс, гарантирующий решения в пользу граждан и защиту минимальных прав пользователей, обязывая разработчиков быть социально ответственными, как это происходит в случае с GDPR (общий регламент по защите данных (General Data Protection Regulation, вступивший в Европейском союзе в 2018 году – Прим.ред.). Но в большинстве случаев вопросы этики становятся прецедентными: пока технология не столкнулась с реальной ситуацией в обществе, все ее последствия едва ли могут быть учтены на этапе разработки.
Почему сейчас нельзя игнорировать техноэтику?
Прецедентов стало достаточно, чтобы на повестке разработки оказался запрос на специализированную экспертизу. Этика медиа, Интернета, биотехнологий, инженерного дела, коммуникационных технологий, экологии и других направлений формируются в отдельные дисциплинарные направления и собирают сторонников из академии, индустрии, гражданского общества.
Еще по теме: Куда приведут ваши цифровые следы?
Технологией, более всего отражающей многие этические проблемы, как ни странно оказывается искусственный интеллект. Алгоритмы воспитываются на доступных данных, которые в необработанном виде представляют собой кривое зеркало поведения людей в сети. Обучаясь, эти алгоритмы с оптимальными сценариями выдают те результаты, которые статистически формируют паттерны взаимодействий и коммуникации. Например, исследователи сферы искусственного интеллекта в инициативе State of AI приводят следующие примеры того, какие ошибки выдают алгоритмы в 2018 году:
- на запрос «CEO» поисковик на первой странице результатов под картинками выдает «белых» мужчин;
- запросы имен, звучащих как афроамериканские, выдают рекламу на проверку криминального прошлого;
- Google: распознаватель фото маркирует темнокожих как «горилл»;
- HP: камеры распознавания лиц не определяют лица азиатов;
- Youtube: технология «speech-to-text» (перевод речи в текст) не распознает женские голоса;
- Amazon: ЛГБТ-литература попадает в категорию 18+ и убирается из рейтингов продаж.
Другим примером подобных проблем является интернет вещей. Такие эффективные и, на первый взгляд, позитивные технологические концепции, как «умный дом», «умный город», «забота о здоровье», могут быть направлены против гражданского общества.
Самый яркий пример – тотальная система слежения и распознавания лиц в Китае. Более 175 миллионов камер бесперебойно следят за жителями городов. Алгоритмы на основе их поведения формируют «рейтинг общественной надежности». С 2020 года граждане с низкими показателями рейтинга будут ограничены в ряде получения социальных услуг (например, в выдаче кредита). Кроме того, база с данными о миллиарде людей является крупной добычей для злоумышленников.
Как внедрять этику в технологии?
Этика уже давно предложила набор систем, которые локально могут быть применены к любой технологии. Все эти этические системы не внедряются в технологии и инфраструктуры сами по себе. Обычно это предваряется обсуждениями с заинтересованными группами и экспертами из разных областей.
Разберемся на примере беспилотных автомобилей. В скором времени они выйдут на дороги общего пользования в разных странах. Машины без водителя, как никакая другая технология, показывают этические дилеммы и этические предпочтения, которые необходимо в них заложить. Речь даже не о «проблеме вагонетки», а о том, что в разных, прежде всего европейских, странах проходят обсуждения относительно того, какие ценности должны усиливаться или, наоборот, ослабляться беспилотными автомобилями. Эти обсуждения показательны, поскольку позволяют продемонстрировать весь веер возможностей этических систем.
Субъективный релятивизм. Правильным считается то, что считает правильным отдельный индивид. Если, скажем, отдельный индивид будет считать правильным ехать на беспилотнике на скорости в 140 км в час по оживленной городской дороге, то это его дело.
Культурный релятивизм предполагает схожую логику, но для отдельной этнической, религиозной или социальной группы. Например, все пользователи беспилотных автомобилей могут решить, что жизнь и здоровье всех остальных членов общества – это не такая важная цель, а вот их комфорт и скорость – это доминирующие ценности. И с позиции культурного релятивизма к ним не будет вопросов.
Кантианство делает акцент на долге и важности жизни отдельного человека. Если беспилотный автомобиль делать с акцентом на кантианскую систему ценностей, то он должен действовать так, чтобы спасти все возможные человеческие жизни, а также стараться найти максимальный баланс в удобстве пользования дорогой разными людьми. Отдельные аспекты кантианства можно увидеть сегодня в рекомендации немецкого Министерства транспорта и цифровой инфраструктуры в отношении беспилотных автомобилей.
Утилитаризм. Противоположность кантианства. Для него основанием является то, насколько те или иные действия технологии приведут к счастью как можно большего количества людей. Утилитарный беспилотник, во-первых, будет стараться наносить вред как можно меньшему количеству людей, потому что это благо для общества. А во-вторых, он может начать пропускать более важные машины, которые полезнее для общества, например, грузовики, как это принято на дорогах Индии (хотя там еще нет беспилотников).
Система социального контракта предполагает, что основание этики – это законы, и потому необходимо сделать беспилотник таким, чтобы он просто подчинялся правилам ПДД. Это вызывает бурю протестов от тех, кто понимает, что на дороге много неформальных правил. Неформальные правила признают как проблему и среди разработчиков (см., например, интервью главы разработки беспилотников Яндекса).
Концепция устойчивого развития в качестве главной этической ценности признает экологию и собственно устойчивое развитие городов и территорий. Она предполагает, что беспилотники должны быть более здоровыми для окружающей среды, и нежелательно, чтобы они были личными автомобилями.
Наконец, теория социальной справедливости предполагает, что справедливо то, что способствует равенству разных групп в обществе. Это, наверное, одна из самых важных этических систем, поскольку, как показывают обсуждения законопроекта о беспилотниках в Великобритании, люди с активным стилем жизни, велосипедисты, пешеходы – все боятся, что беспилотные автомобили вытеснят их с дорог в отдельные городские анклавы.
Доминирующий на сегодня технократический подход в разработке технологий требует пересмотра и включения новых акторов на разных этапах производства, которые могут поднимать и обсуждать этические вопросы. Смена парадигмы разработки может быть реализована только благодаря разнообразию учитываемого экспертного и исследовательского знания. Оно должно лечь в основу принятия технологических решений еще до закрытия «черного ящика» алгоритма или продукта.
Уже не только социальные исследователи приходят к мнению о том, что разработка требует привлечения участников со своими сильными сферами экспертизы, особенно если речь идет о социальном развитии: необходимо участие социальных ученых, локальных сообществ, социально ориентированных НКО и других представителей гражданского общества. Совместное участие разработчиков и разных общественных представителей ставит новый круг задач и вызовов, но решение этих вопросов оказывается, в конечном счете, не менее важным для гармоничного развития технологий.
2024: Сыграйте в игру про этику в технологиях
Эта статья приурочена к запуску онлайн-игры про этику в технологиях под названием «2024», в создании которой участвовали эксперты.
«В ваших руках огромная власть. Ваша задача – улучшить жизнь в стране при помощи технологий. Слежка за гражданами или безопасность? Технологическая безработица, дроны-убийцы или новые этичные технологии, которые спасут мир? Попробуйте создать свое будущее в онлайн-игре «2024».
Герой игры – первая женщина премьер-министр восточноевропейской страны. Государство на развилке: от ваших шагов зависит, будет ли оно развиваться, или же превратится в антиутопию. Игроку предлагается принять или отвергнуть внедрение разных технологий: дополненную реальность, беспилотные автомобили, биочипы, сенсоры, предиктивную полицию, спутниковый Интернет, компьютеризированную обувь и одежду, интернет ДНК. Во время прохождения пользователь узнает больше о сути технологии, какие плюсы и минусы произойдут от ее внедрения.
Игру запустили специалисты Центра исследования науки и технологий Европейского университета в Санкт-Петербурге и образовательного проекта Теплица социальных технологий 15 октября 2019 года.
В завершение игры пользователи могут поддержать российский общественный проект «Роскомсвобода», команда которого защищает цифровые права пользователей и борется с цензурой в Интернете.