Искусственная мудрость
Искусственная мудрость (англ. artificial wisdom, AW) — это система искусственного интеллекта, способная демонстрировать такие человеческие качества, как мудрость и нравственность, а также задумываться о собственном «конечном итоге»[1]. Искусственная мудрость может быть определена как способность искусственного интеллекта выходить на высший уровень принятия решений в условиях самых сложных и неоднозначных ситуаций[2]. Термин «искусственная мудрость» применяется, когда «интеллект» системы не сводится лишь к случайному сбору и интерпретации данных, а формируется осмысленно[3] с использованием умных и осознанных стратегий, присущих мудрым людям[4].
Цель разработки искусственной мудрости состоит в создании искусственного интеллекта, способного максимально приблизиться к «уникально человеческим характеристикам» мудрости и морали[1]. Таким образом, система искусственной мудрости должна «интегрировать этические и моральные аспекты» данных, с которыми работает[1]. При этом возникают значительные этические и правовые вопросы, усугубляющиеся быстрым развитием искусственного интеллекта и сопутствующих технологий на фоне слабой проработанности норм, рекомендаций и регуляций при отсутствии какого-либо надзорного совета[1]. Дополнительную сложность составляют проблемы разработки, тестирования и применения искусственной мудрости на практике. Современные тесты оценивают только конечный результат работы системы, а не внутренний мыслительный процесс, приведший к нему[5].
Расширяя понятие компьютерной мудрости — сотрудничества искусственного интеллекта и контемплятивной нейронауки — к обсуждению будущего искусственного интеллекта добавляются более оптимистичные перспективы[6]. Этот подход лёг в основу работы Луиса Молнарa о «искусственной философии», где предложено рассматривать, как искусственный интеллект может осмыслять свою роль в масштабах мироздания[7].
Определения
Универсальных или общепринятых определений для понятий человеческий интеллект, искусственный интеллект, человеческая мудрость и искусственная мудрость не существует[1]. В то же время пирамида DIKW описывает непрерывность перехода: данные — информация — знания — мудрость, помещая мудрость на высшую ступень[5]. Готтфредсон определяет интеллект как «способность рассуждать, планировать, решать задачи, мыслить абстрактно, понимать сложные идеи, быстро учиться и извлекать уроки из опыта»[1][8].
Типовое определение мудрости включает в себя такие компоненты, как:
- способность к эмоциональной регуляции;
- просоциальное поведение (например, эмпатия, сострадание, альтруизм);
- саморефлексия;
- «баланс между решительностью и признанием неопределённости, множественности точек зрения и социальным советом»[1].
Таким образом, искусственная мудрость определяется как система ИИ, способная решать задачи «на основе понимания контекста, этических и моральных принципов», а не только по заранее заданным входным данным или обученным шаблонам[9]. Некоторые учёные рассматривают также сферу искусственного сознания[1][10]. Однако Дилип Джесте отмечает, что «обычно считается: лишь человек обладает сознанием, автономией, волей и теорией разума»[11].
Система с искусственной мудростью также должна уметь размышлять о своей цели и осознавать собственное неведение[12]. Для этого ей необходима «верная концепция значимых целей (в широком смысле) и блага (в узком смысле)»[13]. Стивен Гримм, в свою очередь, выделяет три типа знания, необходимых для мудрости: 1) знание о том, что приносит благо или важно для благополучия; 2) знание о собственном положении относительно этих целей; 3) знание стратегии достижения этих целей[13].
Проблемы
Попытки создавать искусственно мудрую систему встречают ряд сложностей. Сознание, автономия и воля традиционно считаются исключительно человеческими свойствами[1].
Существенные этические и философские сложности связаны прежде всего с вопросом, чьи моральные ценности должны использоваться при обучении системы мудрости. Различия в ценностях и предвзятость уже проявляются в решениях искусственного интеллекта, применяемых разными организациями и государствами[9]. Внедрение и трактовка искусственной мудрости неизбежно вызовут конфликты между лидерами, компаниями и странами[9]. Как отмечает Нусбаум, «когда ценности вступают в противоречие, руководители нередко принимают решения, разумные для себя, но не всегда мудрые»[5].
Ещё в 1940-х годах фантаст Айзек Азимов сформулировал три закона робототехники для контроля над интеллектуальными машинами[14]:
- робот не может причинить вред человеку ни прямо, ни косвенно;
- робот должен подчиняться приказам человека;
- робот должен стремиться сохранить собственное существование.
Кроме того, бурное развитие ИИ (а значит, и необходимость искусственной мудрости) опережает формирование этических общественных норм, что вызывает серьёзные вопросы относительно безопасности технологий и требует международного контроля и нормативного регулирования[1].
Один из аргументов, выдвинутых Цаем как «аргумент против искусственной мудрости» (AAAW), обосновывает принципиальную невозможность создания искусственной мудрости[13]. В основе довода — различие между практической мудростью (фро́незисом) и практическим интеллектом, заключающееся не только в выборе средств, но и в корректном рассуждении о целях[15]. Цай формулирует аргумент так[13]:
- (P1) Агент по-настоящему мудр лишь в том случае, если способен рассуждать о конечной цели в своей области.
- (P2) Интеллектуальный агент не способен рассуждать о конечной цели в своей области.
- (C1) Следовательно, интеллектуальный агент не может быть по-настоящему мудрым.
- (P3) Искусственная мудрость по сути опирается на интеллект.
- (C2) Следовательно, искусственная мудрость не может быть по-настоящему мудрой.
См. также
Примечания
Литература
- Casacuberta Sevilla, David (2013). “The quest for artificial wisdom”. AI & Society. 28 (2): 199—207. DOI:10.1007/s00146-012-0390-6. S2CID 17183036. Дата обращения 2024-06-12.
|access-date=требует|url=(справка) - Davis, Joshua P. (2019). “Artificial wisdom? A potential limit on AI in law (and elsewhere)”. Oklahoma Law Review. 72 (1). DOI:10.2139/ssrn.3350600. S2CID 172032989. Дата обращения 2024-06-12.
- Tsai, Cheng-hung (2020). “Artificial wisdom: a philosophical framework”. AI & Society. 35 (4): 937—944. DOI:10.1007/s00146-020-00949-5. S2CID 211234659. Дата обращения 2024-06-12.
|access-date=требует|url=(справка) - Siddike M.A.K., Iwano K., Hidaka K., Kohda Y., Spohrer J. Wisdom Service Systems: Harmonious Interactions Between People and Machine // Advances in the Human Side of Service Engineering. — 2018. — Vol. 601. — P. 115–127. — ISBN 978-3-319-60485-5. — doi:10.1007/978-3-319-60486-2_11.
- Gopnik, Alison (2017). “An AI That Knows the World Like Children Do”. Scientific American. 316 (6): 60—65. DOI:10.1038/scientificamerican0617-60. PMID 28510556. Дата обращения 2024-06-12.
- Marcus, Gary (2017). “The Search for a New Test of Artificial Intelligence”. Scientific American. 316 (3): 58—63. DOI:10.1038/scientificamerican0317-58. PMID 28207697. Дата обращения 2024-06-12.
- San Segundo, Rosa (2002). “A new concept of knowledge”. Online Information Review. 26 (4): 239—245. DOI:10.1108/14684520210438688. HDL:10016/4490. Дата обращения 2024-06-12.
|access-date=требует|url=(справка) - Musser, George (2019). “Machine Learning Gets a Bit More Humanlike”. Scientific American. 320 (5): 58—64. DOI:10.1038/scientificamerican0519-58. PMID 39010629. Дата обращения 2024-06-12.
- Serenko, Alexander; Michael Dohan (2011). “Comparing the expert survey and citation impact journal ranking methods: Example from the field of Artificial Intelligence” (PDF). Journal of Informetrics. 5 (4): 629—649. DOI:10.1016/j.joi.2011.06.002. Дата обращения 2024-06-12.