Искусственная мудрость

Искусственная мудрость (англ. artificial wisdom, AW) — это система искусственного интеллекта, способная демонстрировать такие человеческие качества, как мудрость и нравственность, а также задумываться о собственном «конечном итоге»[1]. Искусственная мудрость может быть определена как способность искусственного интеллекта выходить на высший уровень принятия решений в условиях самых сложных и неоднозначных ситуаций[2]. Термин «искусственная мудрость» применяется, когда «интеллект» системы не сводится лишь к случайному сбору и интерпретации данных, а формируется осмысленно[3] с использованием умных и осознанных стратегий, присущих мудрым людям[4].

Цель разработки искусственной мудрости состоит в создании искусственного интеллекта, способного максимально приблизиться к «уникально человеческим характеристикам» мудрости и морали[1]. Таким образом, система искусственной мудрости должна «интегрировать этические и моральные аспекты» данных, с которыми работает[1]. При этом возникают значительные этические и правовые вопросы, усугубляющиеся быстрым развитием искусственного интеллекта и сопутствующих технологий на фоне слабой проработанности норм, рекомендаций и регуляций при отсутствии какого-либо надзорного совета[1]. Дополнительную сложность составляют проблемы разработки, тестирования и применения искусственной мудрости на практике. Современные тесты оценивают только конечный результат работы системы, а не внутренний мыслительный процесс, приведший к нему[5].

Расширяя понятие компьютерной мудрости — сотрудничества искусственного интеллекта и контемплятивной нейронауки — к обсуждению будущего искусственного интеллекта добавляются более оптимистичные перспективы[6]. Этот подход лёг в основу работы Луиса Молнарa о «искусственной философии», где предложено рассматривать, как искусственный интеллект может осмыслять свою роль в масштабах мироздания[7].

Определения

Универсальных или общепринятых определений для понятий человеческий интеллект, искусственный интеллект, человеческая мудрость и искусственная мудрость не существует[1]. В то же время пирамида DIKW описывает непрерывность перехода: данные — информация — знания — мудрость, помещая мудрость на высшую ступень[5]. Готтфредсон определяет интеллект как «способность рассуждать, планировать, решать задачи, мыслить абстрактно, понимать сложные идеи, быстро учиться и извлекать уроки из опыта»[1][8].

Типовое определение мудрости включает в себя такие компоненты, как:

  • способность к эмоциональной регуляции;
  • просоциальное поведение (например, эмпатия, сострадание, альтруизм);
  • саморефлексия;
  • «баланс между решительностью и признанием неопределённости, множественности точек зрения и социальным советом»[1].

Таким образом, искусственная мудрость определяется как система ИИ, способная решать задачи «на основе понимания контекста, этических и моральных принципов», а не только по заранее заданным входным данным или обученным шаблонам[9]. Некоторые учёные рассматривают также сферу искусственного сознания[1][10]. Однако Дилип Джесте отмечает, что «обычно считается: лишь человек обладает сознанием, автономией, волей и теорией разума»[11].

Система с искусственной мудростью также должна уметь размышлять о своей цели и осознавать собственное неведение[12]. Для этого ей необходима «верная концепция значимых целей (в широком смысле) и блага (в узком смысле)»[13]. Стивен Гримм, в свою очередь, выделяет три типа знания, необходимых для мудрости: 1) знание о том, что приносит благо или важно для благополучия; 2) знание о собственном положении относительно этих целей; 3) знание стратегии достижения этих целей[13].

Проблемы

Попытки создавать искусственно мудрую систему встречают ряд сложностей. Сознание, автономия и воля традиционно считаются исключительно человеческими свойствами[1].

Ценности

Существенные этические и философские сложности связаны прежде всего с вопросом, чьи моральные ценности должны использоваться при обучении системы мудрости. Различия в ценностях и предвзятость уже проявляются в решениях искусственного интеллекта, применяемых разными организациями и государствами[9]. Внедрение и трактовка искусственной мудрости неизбежно вызовут конфликты между лидерами, компаниями и странами[9]. Как отмечает Нусбаум, «когда ценности вступают в противоречие, руководители нередко принимают решения, разумные для себя, но не всегда мудрые»[5].

Этические аспекты

Ещё в 1940-х годах фантаст Айзек Азимов сформулировал три закона робототехники для контроля над интеллектуальными машинами[14]:

  • робот не может причинить вред человеку ни прямо, ни косвенно;
  • робот должен подчиняться приказам человека;
  • робот должен стремиться сохранить собственное существование.

Кроме того, бурное развитие ИИ (а значит, и необходимость искусственной мудрости) опережает формирование этических общественных норм, что вызывает серьёзные вопросы относительно безопасности технологий и требует международного контроля и нормативного регулирования[1].

Принципиальная невозможность

Один из аргументов, выдвинутых Цаем как «аргумент против искусственной мудрости» (AAAW), обосновывает принципиальную невозможность создания искусственной мудрости[13]. В основе довода — различие между практической мудростью (фро́незисом) и практическим интеллектом, заключающееся не только в выборе средств, но и в корректном рассуждении о целях[15]. Цай формулирует аргумент так[13]:

  • (P1) Агент по-настоящему мудр лишь в том случае, если способен рассуждать о конечной цели в своей области.
  • (P2) Интеллектуальный агент не способен рассуждать о конечной цели в своей области.
  • (C1) Следовательно, интеллектуальный агент не может быть по-настоящему мудрым.
  • (P3) Искусственная мудрость по сути опирается на интеллект.
  • (C2) Следовательно, искусственная мудрость не может быть по-настоящему мудрой.

См. также

Примечания

Литература