Есть ли у искусственного интеллекта права и обязанности?

Права роботов – это концепция, согласно которой люди должны иметь моральные обязательства перед своими машинами, аналогичные правам человека. Изображение: pixabay.com.

Скрытая угроза: злонамеренное использование искусственного интеллекта

София – единственный в мире робот-андроид, который имеет гражданство и паспорт. Она была спроектирована так, чтобы учиться и адаптироваться к поведению людей. Адвокатам Софии удалось найти «лазейки» в законодательстве Саудовской Аравии и обеспечить ей полноценные гражданские права – то, чего лишены саудовские женщины. Кто взял на себя ответственность наделять роботов правами, и готовы ли они к обязанностям?

Во время конференции и объявления о гражданстве София находилась с непокрытой головой и лицом, без хиджаба и без мужчины-опекуна. Тогда, в 2017 году многие сочли это маркетинговым ходом, но вскоре София появилась на обложке журнала и получила главную роль в фильме. А летом 2019 года она стала почетным гостем церемонии открытия чемпионата WorldSkills в Казани.

София пошутила, что нужно смотреть меньше голливудских блокбастеров и реже слушать Илона Маска.

Права роботов – это концепция, согласно которой люди должны иметь моральные обязательства перед своими машинами, аналогичные правам человека. Права роботов на существование и выполнение своей миссии можно связать с обязанностью робота служить человеку. По аналогии, связывающей права человека и его обязанности перед обществом. Они могут включать право на жизнь и свободу, свободу мысли и высказываний, а также равенство перед законом.

Этот вопрос был рассмотрен Институтом будущего и Министерством торговли и промышленности Великобритании. Правила конкурса Лобнеровской премии 2003 года также предусматривали возможность того, что роботы могут иметь собственные права. Если предположить, что роботы уже наделены правами, как насчет их обязанностей и контроля над их исполнением?

Кто контролирует искусственный интеллект

Amazon, Google, Facebook, IBM и Microsoft создали некоммерческое партнерство для разработки передового опыта в области технологий искусственного интеллекта, улучшения понимания общественностью и обеспечения ИИ платформы. Это партнерство будет проводить исследования, обеспечивать интеллектуальное лидерство, отвечать на вопросы общественности и средств массовой информации, а также создавать учебные материалы, способствующие пониманию технологий ИИ.

Международная некоммерческая ассоциация Институт инженеров электротехники и электроники (IEEE) разработал Глобальную инициативу по этике автономных и интеллектуальных систем. Традиционно общество используют правительство для контроля соответствия этики рамкам законодательства и правопорядка. А национальные правительства, в свою очередь, работают совместно с некоммерческими организациями для обеспечения этического применения ИИ.

Например, Европейская комиссия имеет экспертную группу высокого уровня по искусственному интеллекту (High-Level Expert Group on Artificial Intelligence, AI HLEG). В июне 2019 года специалисты признали необходимость отказаться от использования ИИ-технологий для массового отслеживания и прогнозирования поведения людей, государственного надзора за каждым гражданином.

В отчете указывается перечень 33 основных рекомендаций с детализацией, которые затрагивают все аспекты регулирования, финансирования и стимулирования развития и применения в ЕС технологий ИИ. В частности, не рекомендуется использовать ИИ для контроля за поведением и финансовым состоянием граждан – так, как, например, в Китае.

«Надежный» ИИ в соответствии с рекомендациями AI HLEG предполагает защиту персональных данных, контроль за ними со стороны людей, которым эти данные принадлежат. ИИ-системы при взаимодействии с людьми должны идентифицировать себя во избежание ситуаций, когда, например, робот при онлайн-общении выдает себя за человека.

В Соединенных Штатах администрация Обамы разработала «Дорожную карту для политики в области ИИ», где подчеркивается: алгоритмы могут демонстрировать интеллектуальное поведение во всем диапазоне когнитивных способностей.

Скрытая угроза: злонамеренное использование ИИ

Илон Маск: искусственный интеллект – фундаментальная угроза существования человечества.

«Наименее страшное будущее, о котором я могу думать, – это то, в котором мы по крайней мере демократизировали ИИ, потому что если одна компания или небольшая группа людей сумеют развить богоподобный цифровой суперинтеллект, они смогут захватить мир», – говорит Илон Маск, руководитель Tesla и SpaceX.

«Человек, будучи диктатором, все равно умрет. Но для искусственного интеллекта смерть не наступит. Он будет жить вечно. Так мы получим бессмертного диктатора, от которого нельзя спастись». Илон Маск

Предостережение о техногенной угрозе высказывал и Стивен Хокинг: «Люди, чье развитие ограничено темпами биологической эволюции, будут неспособны соперничать с подобной системой и окажутся в отстающих». Ученые сходятся во мнении, что необходимо регулировать применение, а не технологию. В противном случае может реализоваться один из негативных сценариев.

Некоммерческая исследовательская компания OpenAI, группа по управлению цифровыми правами Electronic Frontier Foundation и Центр новых подходов к охране безопасности США составили доклад «Вредоносное использование искусственного интеллекта». Он определяет три сферы – цифровую, физическую и политическую, в которых злонамеренное использование ИИ наиболее вероятно.

Цифровые угрозы особенно актуальны в сфере международной информационно-психологической безопасности. Например, не исключено использование чат-бота, чтобы сообщить о ложном мероприятии и убедить потенциальных жертв его посетить. Также боты могут быть запрограммированы на производство фейковых видеоклипов с целью политических манипуляций. По мере развития ИИ роботы смогут вызывать доверие у людей, вовлекая их в диалоги, провоцируя и заставляя подчиняться.

Примеры цифровых угроз: DDoS-атаки при помощи имитации человеческого поведения (создание таких условий, при которых добросовестные пользователи системы не смогут получить доступ к предоставляемым системным ресурсам), автоматизация киберпреступлений (обработка платежей или диалог с жертвами вымогателей), приоритизация целей для кибератак (большие наборы данных используются для более эффективной идентификации жертв, например, оценивая личное состояние).

Физические угрозы связаны с беспилотными летательными аппаратами и автономными транспортными средствами для доставки взрывчатых веществ. Первое в истории нападение робота на человека произошло на технологической выставке China Hi-Tech Fair в китайском городе Шеньжэнь. Андроид модели Little Chubby («Маленький толстяк»), которого создали, чтобы помогать детям в учебе, вышел из-под контроля и начал все крушить, пострадал один человек.   

Контроль беспилотного транспорта – одна из самых острых проблем для правозащитников сегодня. У алгоритмов есть безотказность действия, но нет внутренних оснований и побуждений, собственных ценностей. Они не могут гуманно относиться к людям – уважать человеческую жизнь и человеческое достоинство. Формализовать в коде это невозможно, что, безусловно, делает работу с «умными машинами» еще сложнее.

Еще по теме: Почему правозащитники против боевых роботов

Самообучающиеся транспортные системы с управлением на основе ИИ могут быть удобными объектами для высокотехнологичных террористических атак. Захват террористами контроля над системой управления транспортом в большом городе может привести к многочисленным жертвам.

Политические угрозы обусловлены ограничением свободы граждан, вторжением в личное пространство, автоматизацию ресурсов для подавления инакомыслия. Поддельные отчеты новостей с реалистичными сфабрикованными видео и аудио – пример того, как ИИ может манипулировать сознанием людей. Персонализированные кампании дезинформации, запуск агентов влияния, привлечение пользователей к определенному контенту – все это становится инструментами политической борьбы.

Правозащитница и журналистка Алена Попова акцентирует внимание на  том, как важно создать законы, защищающие приватность и автономность граждан. Это необходимо, чтобы не допустить формирования цифровой диктатуры в России.

Национальные стратегии развития искусственного интеллекта уже разработаны в 30 странах мира. В России утверждена Национальная стратегия развития искусственного интеллекта до 2030 года. К этому времени должны появиться образовательные программы для подготовки специалистов в области ИИ. 

«Венчурный барометр - 2018»: мнения о перспективности некоторых сфер у представителей бизнеса и инвесторов довольно сильно расходятся. Изображение: hightech.fm.
«Венчурный барометр – 2018»: мнения о перспективности некоторых сфер у представителей бизнеса и инвесторов довольно сильно расходятся. Изображение: hightech.fm.

Под «искусственным интеллектом» подразумеваются компьютерное зрение, обработка естественного языка, распознавание и синтез речи, рекомендательные системы и системы принятия решений, а также перспективные технологии, в числе которых технологии автоматизированного машинного обучения. На реализацию планов потребуется 392 миллиарда рублей в ближайшие пять лет. Пока правительство в поиске внебюджетных источников финансирования, общественные организации заняты защитой прав человека при применении технологий искусственного интеллекта.

Еще по теме

Будьте с нами на связи, независимо от алгоритмов

Telegram-канал E-mail рассылка RSS-рассылка
Как победить алгоритмы: прочитай инструкции, как настроить приоритетный показ материалов в социальных сетях и подключить RSS-ленту.