Этика машин
Этика машин — это раздел этики искусственного интеллекта, сфокусированный на добавлении или обеспечении морального поведения машин, созданных человеком и использующих искусственный интеллект, также известных как искусственные интеллектуальные агенты[1]. Этические вопросы машин отличаются от других этических областей инженерии и технологий. Этика машин не следует путать с этикой компьютеров, которая фокусируется на использовании компьютеров человеком. Также её стоит отличать от философии техники, посвящённой более широким социальным эффектам технологий[2].
История
До XXI века этика машин преимущественно освещалась в научно-фантастической литературе, что было связано с ограничениями в возможностях вычислительной техники и искусственного интеллекта (ИИ). Хотя определение «этики машин» изменилось со временем, термин был предложен Митчеллом Уолдропом в статье «A Question of Responsibility» в журнале AI Magazine в 1987 году.
В 2004 году на AAAI Workshop on Agent Organizations: Theory and Practice был представлен доклад Towards Machine Ethics[3], где рассматривались теоретические основы этики машин[4].
Именно на AAAI Fall 2005 Symposium по этике машин исследователи впервые встретились для обсуждения внедрения этического измерения в автономные системы[5]. Разнообразие подходов данного направления отражено в сборнике «Machine Ethics»[6], вышедшем как результат симпозиума 2005 года.
В 2007 году в журнале AI Magazine опубликована статья Machine Ethics: Creating an Ethical Intelligent Agent[7], в которой обсуждалась значимость этики машин, необходимость явного представления этических принципов в машинах и вызовы, стоящие перед специалистами в этой области. Было также показано, что машина в ограниченной предметной области может абстрагировать этический принцип из примеров этических суждений и использовать его при принятии решений.
В 2009 году Oxford University Press выпустило книгу Moral Machines, Teaching Robots Right from Wrong[8], позиционируя её как «первую книгу, глубоко исследующую проблему создания моральных искусственных агентов». Книга цитирует около 450 работ, из которых примерно 100 посвящены ключевым вопросам этики машин.
В 2011 году Cambridge University Press опубликовало сборник эссе по этике машин под редакцией Майкла и Сьюзан Ли Андерсон[6], которые также подготовили специальный выпуск журнала IEEE Intelligent Systems на эту тему в 2006 году. Сборник посвящён сложностям внедрения этических принципов в машины[9].
В 2014 году Исследовательское управление ВМС США объявило о выделении 7,5 млн долларов грантов на 5 лет для изучения университетскими исследователями прикладных вопросов этики машин по отношению к автономным роботам[10], а книга Ника Бострома «Суперинтеллект: пути, опасности, стратегии» стала событиям, поднявшим вопросы этики машин как «важнейшей… проблемы, с которой человечество когда-либо сталкивалось», и достигла 17-й позиции среди научных бестселлеров по версии New York Times[11].
В 2016 году Европейский парламент опубликовал отчёт[12], призывающий Европейскую комиссию рассмотреть вопрос о юридическом статусе роботов. В публикации содержались разделы о правовой ответственности роботов в зависимости от степени их автономии и обсуждался вопрос о количестве рабочих мест, которые могут быть заменены роботами с ИИ[13][14].
Определения
Джеймс Х. Мур, один из первых теоретиков в области компьютерной этики, определяет четыре типа этических роботов. Как специалист в области философии ИИ, философии сознания, философии науки и логики, Мур выделяет: агентов этического воздействия, имплицитных этических агентов, эксплицитных этических агентов и полноценных этических агентов. Одна машина может относиться к нескольким типам одновременно[15]:
- Агенты этического воздействия: машинные системы, оказывающие (намеренное или случайное) этическое влияние. Они могут вести себя как этично, так и неэтично. Пример — «агент Гудмана», названный в честь философа Нельсона Гудмана: программа, сравнивающая даты, но с ошибкой тысячелетия. До 2000 года — этический агент, после — потенциально антиэтичный агент из-за неверного сравнения дат.
- Имплицитные этические агенты: для обеспечения безопасности людей эти сущности снабжаются защитой от ошибок или встроенными «добродетелями»: они не полностью этичны по своей природе, но их программируют на предотвращение антиэтичных последствий.
- Эксплицитные этические агенты: машины, способные анализировать ситуации и принимать на их основе этические решения — то есть имеющие алгоритмы этического поведения.
- Полные этические агенты: подобны предыдущей категории, но с дополнительными свойствами, считавшимися человеческими, такими как свобода воли, сознание и интенциональность.
Фокусы этики машин
Ряд исследователей, в том числе философ Ник Бостром и специалист в области ИИ Стюарт Рассел, полагают, что если ИИ превзойдёт людей в общей интеллектуальной мощности и станет суперинтеллектом, то он может стать практически неконтролируемым: как судьба горной гориллы зависит от воли человека, так будущее человечества станет зависеть от действий суперинтеллектуальных машин[16]. В книгах «Суперинтеллект» и «Гармония с человеком» оба учёных отмечают, что, несмотря на неопределённость будущего, риски достаточно велики, чтобы требовать срочных мер уже сейчас.
Это ставит проблему управления ИИ: как создать интеллектуального агента, который будет помогать людям, при этом избежав создания суперинтеллекта, который начнёт вредить своим создателям. При неправильном проектировании суперинтеллект может получить контроль и не дать людям его «отключить». Возможные стратегии контроля включают контроль возможностей (ограничение влияния ИИ на внешний мир) и контроль мотивации (создание целей максимально совместимых с человеческими ценностями). Проблемой управления ИИ занимаются такие организации, как Институт будущего человечества, Институт исследований машинного интеллекта, Центр человеко-совместимого ИИ и Институт будущего жизни.
Ведутся дискуссии о парадигмах ИИ, их эффективности и возможной предвзятости. Ник Бостром и Элиезер Юдковский выступают за деревья решений (например, ID3) вместо нейросетей и генетических алгоритмов, поскольку деревья решений соответствуют современным нормам прозрачности и предсказуемости[17]. В противовес им Крис Сантос-Ланг утверждает, что нормы любой эпохи меняются, а неспособность машин в полной мере следовать конкретным нормам может быть преимуществом, снижая их уязвимость к злонамеренным вмешательствам[18][19].
В 2009 году в лаборатории интеллектуальных систем Федеральной политехники Лозанны (Швейцария) провели эксперимент: ИИ-роботы координировали свои действия ради поиска полезного ресурса и избегания вредного[20]. В ходе эксперимента роботы были объединены в кланы, а их алгоритмы эволюционировали методом «цифровой генетики»: очередное поколение наследовало код наиболее удачных представителей. После 50 поколений роботы научились отличать пользу от вреда и даже начали обманывать конкурентов, чтобы скрыть от других «этично выгодный» ресурс[20]. В этом же эксперименте возникло и альтруистическое поведение — некоторые роботы «жертвовали собой» ради других или сигнализировали о появлении опасности[18]. Значимость таких результатов обсуждается в литературе по этике машин: цели, «жёстко» заданные роботам, далеки от многоуровневых мотиваций человека, которому свойственно обучение без конца.
В 2009 году учёные и инженеры обсуждали возможное влияние роботов и компьютеров, обладающих автономией принятия решений. Была отмечена возможность появления машин, различной степени самостоятельности, вплоть до самопоиска источников энергии или выбора целей для атаки в вооружённом конфликте. Некоторые вредоносные программы даже научились избегать удаления — это называют «интеллект таракана». Хотя осознанность машин, описываемая в фантастике, маловероятна, множество других угроз такому развитию событий существует[21].
Некоторые эксперты подвергают сомнению допустимость применения роботов для военных целей, особенно если таким системам поручаются автономные боевые функции[22]. Доклад по заказу ВМС США отмечает: по мере усложнения роботов в армии необходимо особое внимание уделять рассмотрению последствий предоставления им автономии принятия этических решений[23][24]. Ассоциация содействия развитию искусственного интеллекта инициировала масштабное исследование последствий развития ИИ[25]. Особое внимание обращается на системы, эмулирующие человеческое взаимодействие.
Ведутся предварительные исследования способов интеграции искусственного общего интеллекта (полных этических агентов) в существующие правовые и социальные структуры — с акцентом на их права и юридический статус[26].
Big data и машинное обучение всё шире используются в таких областях, как онлайн-реклама, кредитный скоринг и судебная практика, с обещанием «более объективных и честных результатов», однако всё чаще выступают как источник упрочнения социальных неравенств или дискриминации[27][28]. В 2015 году установлено: женщины значительно реже видят объявления о высокооплачиваемых вакансиях (через Google AdSense), а доставка «в тот же день» от Amazon была намеренно недоступна в районах с преобладанием темнокожего населения. Google и Amazon объясняют подобные явления работой непрозрачных алгоритмов-чёрных ящиков[27].
В судебной практике США для принятия решений по залогу и приговору начали использовать ПО оценки риска рецидива, чтобы снизить субъективизм и уровень арестов. Эти инструменты анализируют судимость и иные параметры обвиняемого. Исследование с участием 7000 задержанных в округе Бровард (Флорида) показало: только 20% лиц, которым система предсказывала новый проступок, действительно его совершили[28]. В отчёте ProPublica (2016) по анализу системы Northpointe COMPAS было отмечено: лишь 61% «лиц высокого риска» реально повторно преступили закон за два года; у афроамериканцев вероятность получить «высокий риск» намного выше[28].
В 2016 году рабочая группа по Big data при администрации Обамы опубликовала отчёты о риске «кодирования дискриминации в автоматических решениях» и призвала к внедрению политики «равных возможностей по проекту» (например, для кредитного скоринга)[29][30]. В отчёте подчёркивается необходимость диалога между политиками, гражданами и учёными, при этом признано, что универсального средства устранения предвзятости и дискриминации в алгоритмах пока не найдено.
Этические фреймворки и практики
В марте 2018 года в ответ на растущие опасения о влиянии машинного обучения на права человека Всемирный экономический форум и Глобальный совет по будущему в сфере прав человека опубликовали аналитический доклад с детальными рекомендациями о мерах для предотвращения дискриминации[31]. Были выдвинуты четыре рекомендации, основанные на Принципах ООН в области прав человека:
- Активная инклюзия: разработка и создание ИИ-приложений должны обеспечивать разнообразие исходных данных, особенно учитывая нормы и ценности затрагиваемых аудиторий.
- Справедливость: участники разработки и внедрения систем машинного обучения должны определить, какое представление о справедливости подходит к их задаче, и учитывать это в построении архитектуры и метрик.
- Право на понимание: применение ИИ при принятии решений, затрагивающих индивидуальные права, требует раскрытия информации и понятного объяснения логики, с возможностью проверки компетентным человеком; если права под угрозой, должна решаться вопрос о допустимости такой системы вообще.
- Право на возмещение: разработчики и руководители проектов обязаны выявлять потенциальные негативные последствия ИИ по отношению к правам человека и создавать эффективные механизмы восстановления справедливости.
В январе 2020 года Berkman Klein Center for Internet and Society при Гарвардском университете опубликовал мета-анализ 36 крупных наборов принципов ИИ: определено восемь ключевых тем — приватность, ответственность, безопасность, прозрачность и интерпретируемость, справедливость и недискриминация, контроль человеком, профессиональная ответственность и продвижение человеческих ценностей[32]. Аналогичное исследование провели специалисты ETH Zurich[33].
Есть различные попытки сделать мораль формальной или даже вычислимой. Хотя Три закона робототехники Айзека Азимова не считаются достаточной основой для машинной морали[34], рассматривался вариант использования категорического императива Канта[35]. Однако отмечается, что система человеческих ценностей слишком сложна[36]. Один из путей — прямое обучение машин ценностям у человека, например, через принципы обучения[37][38][39]. Другой подход — построение решений на основе аналогичных (прецедентных) ситуаций — казуистика, которую можно воплотить через поиск по Интернету: решение будет производиться с опорой на баланс большого количества прецедентов[7]. Минус такого метода — возможная унаследованная предвзятость и повторение негативных примеров, как показал инцидент с ботом Tay от Microsoft, обучившимся повторять расистские и сексистские высказывания[40].
Один из мысленных экспериментов в области этики машин — образ «Гения Голема», обладающего неограниченными возможностями и требующего сформулировать для него систему морали, которой он будет повиноваться через 50 лет. Такой эксперимент позволяет запустить обсуждение вопроса формализации этики для машин[41].
В художественной литературе
В произведениях научной фантастики, фильмах и романах была неоднократно поднята идея о возможности сознания у машин и роботов.
Так, в фильме Чаппи (2015) Нила Бломкампа сознание человека переносится в компьютер[42]. В фильме Из машины (2014) Алекса Гарленда искусственный интеллект проходит вариант теста Тьюринга — так проверяется, различим ли его поведение от человеческого. В фильмах Терминатор (1984) и Матрица (1999) поднимается тема восстания машин против создателей.
Айзек Азимов уже в 1950-х искал ответ в цикле «Я, робот». По инициативе редактора Джона Кэмпбелла он предложил три закона робототехники, а затем проверял их ограниченность через парадоксы и пределы. Его работы показывают невозможность заранее предсказать все возможные ситуации с помощью любых статичных правил[43]. В романе Филипа Дика «Мечтают ли андроиды об электроовцах?» (1968) рассматривается вопрос, что значит быть человеком и возможно ли, что эмпатия — не только человеческое свойство; этот сюжет лёг в основу фильма Бегущий по лезвию (1982).
Родственные области
- Аффективные вычисления
- Формальная этика[44]
- Биоэтика
- Вычислительная теория разума
- Информационная этика
- Этика в искусственном интеллекте
- Моральная психология
- Философия искусственного интеллекта
- Философия сознания
Примечания
Литература
- Wallach, Wendell; Allen, Colin (ноябрь 2008). Moral Machines: Teaching Robots Right from Wrong. США: Oxford University Press.
- Anderson, Michael; Anderson, Susan Leigh, ред. (июль 2011). Machine Ethics. Cambridge University Press.
- Storrs Hall, J. (30 мая 2007). Beyond AI: Creating the Consciousness of the Machine. Prometheus Books.
- Moor, J. (2006). The Nature, Importance and Difficulty of Machine Ethics. IEEE Intelligent Systems, 21(4), c. 18–21.
- Anderson, M. и Anderson, S. (2007). Creating an Ethical Intelligent Agent. AI Magazine, том 28, вып. 4.
- Hagendorff, Thilo (2021). Linking Human and Machine Behavior: A New Approach to Assessing the Quality of Training Data for Beneficial Machine Learning. Minds and Machines, doi:10.1007/s11023-021-09573-8.
- Anderson, Michael; Anderson, Susan Leigh, ред. (июль–август 2006). "Специальный выпуск по этике машин". IEEE Intelligent Systems, том 21 (4): 10–63.
- Bendel, Oliver (11 декабря 2013). Considerations on the Relationship between Animal and Machine Ethics. AI & Society, doi:10.1007/s00146-013-0526-3.
- Dabringer, Gerhard, ред. (2010). "Этические и юридические аспекты беспилотных систем. Интервью.". Министерство обороны и спорта Австрии, Вена, 2010 ISBN 978-3-902761-04-0.
- Gardner, A. (1987). An Artificial Approach to Legal Reasoning. Cambridge, MA: MIT Press.
- Georges, T. M. (2003). Digital Soul: Intelligent Machines and Human Values. Cambridge, MA: Westview Press.
- Singer, P. W. (29 декабря 2009). Wired for War: The Robotics Revolution and Conflict in the 21st Century. Penguin.
Ссылки
- Machine Ethics — междисциплинарный проект по вопросам этики машин.
- The Machine Ethics Podcast — подкаст о машинной этике, искусственном интеллекте и этике технологий.