Почему правозащитники против боевых роботов

Алимжан Ахметов, Алена Попова, Андрей Юров и Вадим Козюлин на конференции «Игра без правил: роботы-убийцы или искусственный интеллект в военных технологиях». Фото: rosbalt.ru.

О проблемах использования искусственного интеллекта в военных технологиях.

«Умные машины» преуспели везде – в искусстве, решении экологических проблем и здравоохранении. Что будет, если доверить им самое дорогое – человеческую жизнь? Последствия этого решения обсудили участники пресс-конференции «Игра без правил: роботы-убийцы или искусственный интеллект в военных технологиях», которая состоялась в информационно-аналитическом агентстве «Росбалт» 10 июня 2019 года. Журналист Теплицы Юлия Каленкова записала главные мысли со встречи, организованной Московской Хельсинкской группой.

«Если робот застрелил человека, кто будет отвечать? Разработчик, сама «железяка» – то есть алгоритм, заложенный в нее, человек, взявший на вооружение этого робота? В международном праве на эти вопросы ответов пока нет. И непонятно даже, в какой мере будет нестись ответственность», – обозначила одну из главных проблем Алена Попова, юрист, руководитель аналитического центра «Этика и технологии» (центр создан при поддержке научного совета по методологии искусственного интеллекта РАН РФ).

Члены коалиции Campaign to Stop Killer Robots выступают за введение международного запрета на применение полностью автономного смертельного оружия. Видео канала StopKillerRobots.

У алгоритмов есть безотказность действия, но нет внутренних оснований и побуждений, собственных ценностей. Они не могут гуманно относиться к людям – уважать человеческую жизнь и человеческое достоинство. Формализовать в коде это невозможно, что, безусловно, делает работу с «умными машинами» еще сложнее.

Еще по теме: Этика и математика: зачем кодировать мораль

Еще одна проблема, которую сформулировала эксперт, – «черный ящик». Работа алгоритмов глубинного обучения настолько сложна, что человек не сможет понять, на основе чего алгоритм принял то или иное решение. Соответственно, ответственность будет перекладываться с человека на алгоритмы. Военные преступления превратятся в «издержки войны». Без ответов остаются и другие вопросы: как быть с преступными или аморальными приказами, которые человек может отказаться выполнять, а робот нет? Насколько вероятны анонимные нападения и злоупотребления технологиями?

Дискуссию продолжил Алимжан Ахметов, директор Центра международной безопасности и политики (Казахстан), который поддерживает кампанию Campaign to Stop Killer Robots. Он отметил, что обсуждение допустимых границ использования робототехники ведется с 2010 года. А в 2018 году было сформулировано три позиции по отношению к ситуации:

  • превентивный мораторий на автономные системы (Австралия, Бразилия, Чили);
  • принятие политической декларации о сохранении значимого человеческого контроля (Германия, Франция и другие);
  • запрет использования (США, Израиль, Россия, Южная Корея и другие государства, активно инвестирующие в использование искусственного интеллекта для военных нужд).

Позицию России не раз обозначал президент Владимир Путин: «Если кто-то сможет обеспечить монополию в сфере искусственного интеллекта, то последствия нам всем понятны – тот станет властелином мира», – резюмировал глава государства в мае 2019 года на совещании о развитии технологий в области искусственного интеллекта.

В 2018 году общие расходы на научно-исследовательские и опытно-конструкторские работы (НИОКР) в США оцениваются в $553 млрд, в Китае – в $475 млрд, в ЕС – в $449,5 млрд. Для России приводится в качестве оценки сумма $58,6 млрд в 2018 году. Таким образом, в сфере финансирования исследований страна на порядок отстает от лидеров. По данным Forbes.ru.

Оппонировал спикерам Вадим Козюлин, директор проекта по новым технологиям и международной безопасности, ПИР-Центра. Он отметил: многие эксперты уверены, что роботы будут более точными в соблюдении гуманитарного права. И прежде чем переходить к активным действиям – запретам или санкционированию, – нужно решить ряд вопросов. Например, что такое автономное оружие само по себе (можно ли, например, противовоздушную оборону считать таковым?); что значит «значимый человеческий контроль» (ведь алгоритм, заложенный человеком, тоже форма контроля).

Итог встречи подвел Андрей Юров, правозащитник, эксперт Московской Хельсинкской группы, член правления Международной гражданской инициативы для ОБСЕ. Он призвал задуматься, что происходит с базовыми правами человека в цифровую эпоху: правом на жизнь, на неприкосновенность частной жизни.

Еще по теме: Богоразовские чтения: какие цифровые проблемы волнуют правозащитников

«Даже самые умные механизмы разрабатываются несовершенными существами – людьми. А значит, всегда есть возможность ошибки, стоит ли в таком случае доверять машинам?» – заключил эксперт и подчеркнул: ждать, когда страны-разработчики договорятся о запрете автономного оружия, не стоит. Противостоять этой угрозе может только мировое гражданское общество, а для этого ему придется очень быстро повзрослеть и объединиться.

Самое популярное

Будьте с нами на связи, независимо от алгоритмов

Telegram-канал E-mail рассылка RSS-рассылка
Как победить алгоритмы: прочитай инструкции, как настроить приоритетный показ материалов в социальных сетях и подключить RSS-ленту.