Как роботы оказались во власти расовых предрассудков, и почему беспристрастные алгоритмы манипулируют людьми? Разработка этичного искусственного интеллекта – это создание моста между машинным искусственным состоянием и человеческим естественным. Речь идет о системах, которые являются одновременно умными и автономными. О трех проблемах, с которыми столкнулись разработчики таких систем, журналист Теплицы Юлия Каленкова поговорила с Иваном Ниненко, членом экспертного совета Future Foundation.
Почему роботы проецируют стереотипы людей?
В ноябре 2019 года программист Дэвид Ханссон пожаловался, что кредитный лимит по Apple Card, который одобрили его жене, оказался в 20 раз меньше, чем у него самого. Твит Ханссона набрал больше семи тысяч ретвитов, программиста поддержал в том числе сооснователь Apple Стив Возняк. На фоне жалоб департамент финансовых услуг Нью-Йорка объявил о проверке банка Goldman Sachs, который выступил партнером Apple Card. Банк, в свою очередь, предложил пересмотреть кредитные лимиты для держателей кредитной карты Apple Card после обвинений в сексизме.
«С машинным обучением важно понимать: никто не пишет непосредственно сам алгоритм. Системе «скармливают» большое количество данных, чтобы она «видела», как действовали в предыдущих ситуациях, допустим банковские скринеры. А они, как выяснилось, были достаточно часто предвзяты. То есть стереотипное мышление людей перенеслось на алгоритмы», – комментирует Иван Ниненко.
По его словам, этот вопрос станет особенно острым, если мы, например, доверим искусственному интеллекту оценивать, кто должен получить благотворительную помощь. «Допустим, мы говорим о том, что у нас есть фонд, который должен распределять между детьми деньги на лечение. Мы можем представить, что делегируем алгоритму принятие решения, кто получает деньги, в какой последовательности, как они распределяются. Важно понимать, что в таком случае мы, с одной стороны, экономим на затратах по анализу данных, а с другой – будем вынужден мириться со всеми плюсами и минусами текущей системы», – резюмирует эксперт.
Решением проблемы может стать частичное участие человека как в процессе принятия решений, так и в плане анализа и совершенствования систем. Необходимо задавать новые параметры и искать оптимальные результаты. Потому что если алгоритм будет действовать на основе предыдущих данных, он будет просто повторять предыдущий опыт.
Усилит ли искусственный интеллект неравенство?
Большинство компаний все еще зависят от почасового труда, когда дело касается продуктов и услуг. Но, используя искусственный интеллект, компания может значительно сократить зависимость от человеческой рабочей силы, а значит, доходы будет получать меньшее количество людей. В результате лица, владеющие компаниями, где работу выполняет ИИ, будут получать все деньги. В 2014 году три крупнейшие компании Детройта генерировали почти такие же доходы, что и три крупнейшие компании Кремниевой долины, только в Долине в них работало в 10 раз меньше сотрудников.
«Это вопрос коммунистического характера: как распределять блага при производстве его с помощью разных орудий производства. Мне кажется, искусственный интеллект не сильно меняет ситуацию, то есть сейчас основные ресурсы получают просто те, у кого уже есть ресурсы: богатые богатеют, бедные беднеют. И здесь искусственный интеллект принципиально не меняет ситуацию», – считает Иван Ниненко, подчеркивая, что это вопрос больше к обществу, а не к технологиям.
Могут ли роботы манипулировать людьми?
В 2017 году Нобелевскую премию получил Ричард Тейлер, который описал такое понятие, как наджинг (nudge –подталкивание). Он разработал «теорию подталкивания», «управляемого выбора». По сути это способы манипуляции человеческим поведением в мягкой форме, без запретов и приказов. Самый простой пример наджинга: при заполнении анкеты на сайте уже проставлена галочка напротив строчки: «Хочу получать рекламные предложения».
Либертарианский патернализм – подталкивание к принятию лучшего решения без ограничения свободы выбора. Фрукты и салаты в столовой, выложенные на уровне глаз и перед десертами, могут повлиять на то, что люди едят; открытые лестницы могут подтолкнуть к тому, чтобы больше ходить. Проблемы с самоконтролем и бездумный выбор портят жизнь миллионам людей и от подталкивания все только выиграют. «Nude. Архитектура выбора».
«Современные алгоритмы хорошо профилируют человека, за счет чего таргетированная реклама становится более эффективной. Эти же алгоритмы могут довольно эффективно убеждать человека жертвовать или голосовать определенным образом. Инструменты – те же, что и в рекламе, просто у маркетологов возникает гораздо меньше этических вопросов», – комментирует Иван Ниненко.
Это комплексная проблема, и решать ее нужно, работая с людьми, прививая навыки руководствоваться собственным мнением и не поддаваться манипуляциям. Не менее важны договоренности в среде благотворителей.
«Упрощенно логика злоупотребления алгоритмами будет выглядеть следующим образом. Мы встраиваем на сайт систему, которая анализирует профиль пользователей и подбирает те фотографии, которые в каждом конкретном случае будут вызывать больше всего эмоций. Чем больше эмоциональный резонанс, тем больше пожертвования. Так вот, имеет смысл прийти к общим стандартам поведения – допустимы ли такие манипуляции?» – комментирует Иван Ниненко.
По мнению эксперта, алгоритмы ставят перед нами задачу определиться с целевой функцией. Что это в пределе: продолжительность жизни, счастье, максимальные зарплаты всех людей, с которыми мы работаем, максимальные зарплаты всех на планете? То есть куда мы стремимся при таком большом количестве данных, которые можно алгоритмом анализировать, настраивать и давать рекомендации. Как описывать эту функцию – большой философский вопрос, ответ на который предстоит найти.