Искусственный интеллект и моральное совершенствование

Искусственный интеллект и моральное совершенствование — подход, предусматривающий использование искусственного интеллекта для совершенствования морального рассуждения и ускорения морального прогресса[1].

Искусственное моральное рассуждение

В контексте морального рассуждения считается, что человек является неидеальным обработчиком информации, судьёй и моральным агентом[2]. Под влиянием стресса или временных ограничений люди редко принимают во внимание все релевантные факторы и необходимую информацию для обоснованных моральных суждений; им зачастую недостаёт последовательности, а также они склонны к когнитивным искажениям.

С развитием искусственного интеллекта появляются искусственные моральные агенты, способные выполнять и совершенствовать моральное рассуждение, преодолевая ограничения человека[3].

Теория идеального наблюдателя

Классическая теория идеального наблюдателя — это метаэтическая концепция, трактующая смысл моральных утверждений. Она утверждает, что моральное утверждение — это любое высказывание, на которое «идеальный наблюдатель» реагировал бы определённым образом. Идеальный наблюдатель определяется как:

  1. Всеведущий относительно неморальных фактов;
  2. Всевоспринимающий;
  3. Беспристрастный;
  4. Бесстрастный;
  5. Последовательный;
  6. Во всём остальном — обычный.

Варианты теории идеального наблюдателя были предложены Адамом Смитом и Дэвидом Хьюмом, однако её современную и более развитую версию сформулировал Родерик Фёрт[1]. В юриспруденции аналогичной идеей считается критерий разумного человека.

В настоящее время системы искусственного интеллекта могут предоставлять или поддерживать принятие моральных решений, указывая, как следует действовать, чтобы соответствовать определённым моральным принципам[2]. Системы искусственного интеллекта способны собирать данные из окружающей среды, обрабатывать их с помощью операционных критериев (например, ценностей, целей и принципов), а также советовать пользователям наиболее обоснованный с моральной точки зрения способ действий[3]. Это позволяет людям принимать (почти) оптимальные моральные решения, которых они обычно не достигают или не могут достичь из-за нехватки ментальных ресурсов или времени.

Искусственные моральные помощники могут быть сопоставлены и противопоставлены идеальным наблюдателям[2]. В то время как идеальные наблюдатели обладают всеведением и всевосприятием относительно неэтических фактов, искусственным моральным помощникам достаточно знать лишь те факты, которые морально релевантны для конкретного решения.

Пользователи могут настраивать такие системы, что позволяет им быть релятивистскими. Релятивистские искусственные моральные помощники могут помогать человеку стать более совершенным моральным судьёй и одновременно уважать его автономию как морального субъекта и агента. По этой причине и в силу того, что искусственные моральные помощники действовали бы беспристрастно, бесстрастно, последовательно, рационально, эмпирически и с объективистских позиций, такие релятивистские помощники могут быть предпочтительнее абсолютистских идеальных наблюдателей.

Полная и вспомогательная моральная оптимизация

Полная моральная оптимизация подразумевает сценарии, в которых принятие человеком моральных решений полностью заменяется и передаётся во власть машин. Некоторые сторонники считают, что машины превосходят людей в моральном отношении, и следование их предписаниям представляет собой моральный прогресс[4].

К основным проблемам полной моральной оптимизации относят:

  1. Существование плюрализма может затруднить достижение консенсуса, необходимого для конструирования, настройки или обучения систем;
  2. Даже в случае достижения консенсуса люди могут не справиться с созданием эффективных систем из-за собственных и машинных ограничений;
  3. В результате могут получиться системы, не вполне пригодные для автономных моральных решений;
  4. Моральный прогресс может оказаться заторможенным;
  5. Это приведёт к «смерти» морали[5].

Зависимость морального рассуждения от систем искусственного интеллекта не только негативно сказывается на формировании моральной добродетели, но и активно её ослабляет, подвергая людей риску моральной дезинтеграции, атрофии способностей и моральных манипуляций со стороны создателей систем[4].

Вспомогательная моральная оптимизация отвечает на эти вызовы и моделирует ситуации, в которых машины лишь дополняют или помогают принятию решений человеком. Инструменты искусственного интеллекта ориентированы на то, чтобы помогать людям прояснять и отслеживать свои моральные обязательства и контексты, а также предоставлять объяснения, аргументы и обоснования моральных выводов. Однако окончательное решение всегда принимается человеком[4].

Сторонники морального совершенствования также поддерживают образовательные технологии в сфере морали и технологии морального обучения — например, помощники, использующие Сократический метод. В некоторых случаях наиболее подходящим ответом на моральный вопрос может стать диалог, дающий пользователю «максимальную ценность».

Плюрализм

Искусственные моральные агенты могут быть настроены так, чтобы разделять моральные обязательства пользователя, сохраняя существующий плюрализм в обществе.

Кроме того, такие агенты могут эмулировать философов прошлого и настоящего, а также усваивать и реализовывать различные взгляды, школы мысли и традиции мудрости. Ответы, генерируемые с помощью команд из нескольких моральных агентов, могут быть получены в ходе дебатов или других процедур комбинирования индивидуальных позиций.

Примечания