Этика и математика: зачем кодировать мораль

Одна из проблем цифровизации: как кодифицировать этические нормы. Изображение: pixabay.com

Одна из проблем цифровизации: как кодифицировать этические нормы

Мы уже выяснили, насколько важна киберэтика в современном мире, и даже представили мир, в котором человек и машина слились воедино. Будущее не определено однозначно, а настоящее мы строим здесь и сейчас. И сегодня есть ряд проблем, которые касаются каждого, кто присутствует в виртуальном пространстве.

Один из ключевых вопросов, который встает при цифровизации, – как кодировать этические вопросы на уровне математики. В Китае на этот вопрос смело отвечает государство – алгоритмам построения социального рейтинга обучают в соответствии с тем, что власть считает правильным. В России пока эти вопросы практически не обсуждаются.

Еще по теме: Реальны ли ваши права в виртуальном мире?

Иван Ниненко, член экспертного совета Future Foundations, приводит пример из личного опыта: один чиновник, занимающийся вопросами цифровизации, получил задачу увеличить сбор средств по алиментам. Для этого можно, например, ограничить доступ должника к госуслугам. Однако тут же встал вопрос: до какого уровня их ограничивать? Непонятно, кто должен решать эту проблему и нести ответственность за результат.

Проблема вагонетки

«При распространении автоматизации мы начинаем делегировать решения автономным агентам. Например, самоуправляемым машинам», – комментирует эксперт. При модерации этических проблем мы обладаем необходимыми инструментами (ограничить доступ к техническим благам, например), но не имеем представления о границах этих санкций.

Еще один пример: оптимизация транспортной системы Москвы. У нас есть значение средней скорости движения в целом всего потока машин, часть его приходится на общественный транспорт. Мы можем регулировать ситуацию на дорогах, начиная от светофоров (они подключены к единой системе), заканчивая разметкой. Допустим, нам нужно увеличить среднюю скорость автомобилей. Какова при этом должна быть скорость общественного транспорта? Математически это можно определить, но решить вопрос приоритета должен человек, ведь компьютер лишь рассчитывает функцию.

«Алгоритмы будут принимать все больше и больше решений, что оптимизирует систему. Но от нас зависит, какие параметры вводить. Например, какой приоритет должна получить «Скорая помощь»? Это вопрос, который требует четкого ответа. В этом и сложность этики при цифровизации. Она требует закодировать тут систему, которая сейчас находится между строк», – резюмирует Иван Ниненко.

Мы понимаем, что такое хорошо и что такое плохо. Но в коэффициентах (а именно с ними работают алгоритмы) это выразить сложно. Классический пример – проблема вагонетки, которая сейчас интересует всех в контексте программирования беспилотных автомобилей.

Тяжелая неуправляемая вагонетка несется по рельсам. На пути ее следования находятся пять человек, привязанные к рельсам сумасшедшим философом. К счастью, вы можете переключить стрелку — и тогда вагонетка поедет по другому, запасному пути. К несчастью, на запасном пути находится один человек, также привязанный к рельсам. Каковы ваши действия?



Один из наиболее известных этических мысленных экспериментов – проблема вагонетки. Видео канала «Потребление идей».

Должен ли автопилот уклоняться от зайца? Каждый водитель сам это решение принимает. Но беспилотные автомобили нужно запрограммировать на решение в подобных ситуациях. Мы приближаемся к тому, чтобы унифицировать решения, которые прежде были этическим выбором каждого отдельного человека. 

Закон, порядок и этика

По мнению Лилии Земнуховой социолога, научного сотрудника Социологического института РАН и Центра исследований науки и технологий Европейского университета в Санкт-Петербурге, вопросы этики в цифровом мире должны рассматриваться в двух плоскостях: правовой и морально-нравственной.

Правовая связана с тем, как на практике будут реализовываться технологические решения. Как только что-то идет не так (а это всегда происходит с новыми технологиями), должно быть понятно, кто виноват и что делать. Либо технологии уже вписаны в понятные социальные отношения, и они становятся посредниками (например, финансовые операции и их взломы, где ответственность несут банки), либо они производят новые сущности вроде роботов или беспилотных автомобилей, где участников очень много, а ответственность распределена (разработчики, корпорации, пользователи, государство, страховые компании).


Этика новых технологий: беспилотные автомобили и моральные машины. Видео канала «Чердак».

В правовой плоскости у этики в цифровом мире много нерешенных вопросов. Например, Сбербанк, запуская технологию распознавания лиц для доступа к банковским услугам, едва ли спрашивал у пользователей разрешения использовать персональные данные. Но всю ответственность в этом случае он берет на себя. Доверяя информацию о себе государству или корпорациям, мы как будто подписываемся под их ответственностью за «правильные» решения. Лилия Земнухова

Еще один понятный всем пример – Роскомназдор составляет черные списки, лишая нас доступа к информации. Пока мы можем обходить его ограничения, мы не чувствуем большой угрозы. Нужно отдавать себе отчет в том, что с цифровизацией мы незаметно для себя оказываемся во власти чьих-то решений. «Я хочу подчеркнуть, что правовая сторона дела всегда в итоге регламентируется государством, и нам надо участвовать в этом процессе, потому что аутсорсинг этики технологиям невозможен, а этические вопросы никогда не решатся сами собой и должны стать уделом пользователей не меньше, чем разработчиков в каждом новом случае», – резюмирует эксперт.

В качестве иллюстрации данной ситуации Лилия Земнухова приводит корпоративный отчет Microsoft о развитии искусственного интеллекта (ИИ). В нем акцентируется внимание на том, что технологии не решают наши проблемы – они находятся в зоне ответственности не только разработчиков, но и всех пользователей (включая институциональных игроков – бизнес, государство, общество). Если кто-то из них решил использовать искусственный интеллект в своих целях, он обязан думать о последствиях. Если этот актор не в состоянии оценить риски, необходимо собирать команды экспертов, в числе которых будут представители социальных и гуманитарных наук.

И тут встает вторая проблема, которую мы указали выше: морально-нравственная. Она имеет дело с идеями и разработками, а не с технологиями. Уже на этапе проектирования в технологии вкладываются принципы, связанные с идеологией, культурой, ценностями. Именно тогда начинаются сломы и смещения: закрепляются предрассудки, стереотипы, нормативная и рациональная картина мира. Это может быть неотрефлексированным вопросом для разработчиков и абсолютно неприемлемым для пользователей. Чтобы «настроить» эту чувствительность, Институт инженеров электротехники и электроники (Institute of Electrical and Electronics Engineers, IEEE), например, сформулировал этические рекомендации для специалистов в области разработки ИИ.

«В этом документе отдельное большое внимание уделяется незападным ценностям и этическим концепциям (например, буддизм или конфуцианство). Это в хорошем смысле похоже на качественный, точечный краудсорсинг, в котором можно учитывать, как по-разному этические вопросы решаются в разных обществах. Технократический подход не способствует созданию сложной и инклюзивной среды, а разработка технологий – это не только инженерная сфера. Поэтому этические решения не должны приниматься отдельными чиновниками», – уверена Лилия Земнухова.

Очевидно, что цифровизация – это очередной этап развития современного общества. Мы переводим документооборот в цифру, дарим вечную жизнь в виртуальном мире культурному и научному наследию, а также стремимся подружиться с компьютерными алгоритмами. Мы пока не понимаем, какие формулы могут описать наши этические принципы, но понимаем – решения нравственных проблем не будут простыми.

Будьте с нами на связи, независимо от алгоритмов

Telegram-канал E-mail рассылка RSS-рассылка
Как победить алгоритмы: прочитай инструкции, как настроить приоритетный показ материалов в социальных сетях и подключить RSS-ленту.