Материал из РУВИКИ — свободной энциклопедии

Символический искусственный интеллект

Символический искусственный интеллект (англ. symbolic artificial intelligence, также известный как классический искусственный интеллект или логико-ориентированный искусственный интеллект) — совокупность методов исследований в области искусственный интеллект, базирующихся на высокоуровневых (читаемых человеком) символьных представлениях задач, а также на формальной логике и поиске[1]. Символический искусственный интеллект использует инструменты такие, как логическое программирование, продукционные правила, семантические сети и фреймы, а также реализует приложения, включая знание-ориентированные системы (в частности, экспертные системы), символьная математика, автоматические доказатели теорем, онтологии, семантическая паутина, и системы автоматического планирования и расписания. Символический подход способствовал становлению таких направлений как поиск и оптимизация, символьные языки программирования, интеллектуальные агенты, мультиагентные системы, формальное знание и автоматизированное рассуждение.

В период с середины 1950-х до середины 1990-х годов символический искусственный интеллект был доминирующей парадигмой исследований ИИ. Учёные 1960—1970-х годов верили, что символический подход позволит создать системы с общим искусственным интеллектом, и рассматривали это своей главной целью[2]. Начальный энтузиазм и успехи привели к чрезмерным ожиданиям и последующему спаду («зима искусственного интеллекта»), а последняя волна интереса была связана с развитием экспертных систем. Постепенно основные трудности — управление неопределённостью, приобретение знаний, недостаточная гибкость — стимулировали интеграцию формальных и вероятностных методов и последовавший расцвет гибридных, символически-нейронных (нейросимволических) подходов[3][4].

Краткая история развития символического искусственного интеллекта прослеживается ниже. Временные периоды и термины основаны на лекции Генри Каутца 2020 года и статье История искусственного интеллекта.

Первый «летний сезон» ИИ: нерациональный оптимизм (1948—1966)[править | править код]

Первые успехи в ИИ пришлись на три основные области: искусственные нейронные сети, представление знаний и эвристический поиск. Достижения в этих направлениях способствовали высоким ожиданиям.

Подходы, вдохновлённые человеческим или животным интеллектом[править | править код]

Кибернетические подходы пытались воспроизвести процессы обратной связи между живым существом и средой. В 1948 году был построен робот-«черепаха» с датчиками, моторами и простейшей нейросетью. Эти идеи предвосхитили дальнейшее развитие нейронных сетей, обучения с подкреплением и ситуационной робототехники.

Одной из важнейших ранних символических программ стал Логический теоретик (Logic Theorist) (А. Ньюэлл, Г. Саймон и К. Шоу, 1955-56), сумевший автоматически доказать 38 теорем из Principia Mathematica Уайтхеда и Рассела. Впоследствии была создана система Обобщённый решатель задач (GPS), для решения задач методом поиска в пространстве состояний с использованием анализа средств и целей.

В 1960-х символические подходы добились больших успехов в симуляции интеллектуального поведения в структурированных задачах — играх, символьной математике, автоматическом доказательстве теорем. Исследования концентрировались в четырёх институтах: Карнеги-Меллон, Стенфорд, MIT и (позже) Эдинбургский университет.

Герберт Саймон и Аллен Ньюэлл формализовали навыки человеческого решения задач, что заложило основы ИИ, когнитивных наук и теории управления. Их команда использовала результаты психологических экспериментов для моделирования методов мышления человека.

Эвристический поиск[править | править код]

Ранние исследователи открыли универсальное применение знаний в виде эвристик — правил, ведущих поиск по наиболее перспективным направлениям. Появился вопрос: «Как реализовать эффективный неэкспериментальный поиск при экспоненциальной сложности?» — ответом стал эвристический подход. Позже алгоритм A* стал базовой схемой полного и оптимального эвристического поиска, используемой во множестве современных алгоритмов ИИ.

Представление знаний и рассуждения[править | править код]

Ранние работы охватывали как формальные методы на базе предикатной логики первого порядка, так и попытки менее формального моделирования бытового рассуждения.

Формальное моделирование рассуждений с помощью логики: «аккуратисты»[править | править код]

Джон Маккарти полагал, что компьютеры могут использовать логику для решения задач, без необходимости имитировать конкретные психологические механизмы человека. Его лаборатория в Стэнфорде занималась формальной логикой в задачах представления знаний, планирования и обучения. В Европе основной акцент делался на Prolog и логическое программирование.

Имплицитные знания, фреймы и скрипты: «небрежники»[править | править код]

В MIT (М. Минский, С. Пейперт и др.) пришли к выводу, что сложные задачи, такие как зрение и обработка языка, требуют не универсальных, а гибких, подстроенных решений. Роджер Шенк противопоставил эти «небрежные» методы «аккуратным». Примером подхода «небрежников» служит проект Cyc, где знания вводятся вручную.

Первая «зима ИИ»: крушение ожиданий (1967—1977)[править | править код]

К середине 1960-х стало ясно, что создание полноценного ИИ гораздо труднее предполагавшегося; программы DARPA были свёрнуты, ключевые проекты закрылись. В Великобритании критический доклад Лайтхилла привёл к схожим последствиям: утверждалось, что успехи в «игрушечных задачах» не масштабируются на реальный мир из-за комбинаторного взрыва.

Знание-ориентированные системы[править | править код]

Выявились ограничения универсальных методов, и исследователи разных школ стали насыщать приложения объёмными знаниями. Как сформулировал Эдвард Фейгенбаум: «В знании — сила»[5]. Принцип объёмности знаний предполагал, что для решения сложной задачи программа должна знать много о мире задачи.

Экспертные системы: успех на практике[править | править код]

Начался расцвет экспертных систем, впервые воплотивших коммерчески успешный ИИ[6]. Классическими примерами стали DENDRAL, MYCIN, Internist-I, CADUCEUS, GUIDON, XCON.

DENDRAL стал первой экспертной системой, основанной на знание-интенсивных методах поиска; MYCIN показал возможности экспертных систем в медицине, а XCON сэкономил миллионы долларов благодаря автоматизации конфигурирования компьютеров VAX.

Архитектура экспертных систем[править | править код]

В основе находится база знаний (правила или сети продукций), по которой работают процедуры вывода (например, OPS5, CLIPS, Drools). Системы могут реализовывать как прямой (от фактов — к выводам), так и обратный (от целей — к данным) вывод. Soar поддерживает метауровень рассуждения — оценку собственных стратегий.

Blackboard-системы моделируют коллективное решение задач с множеством «экспертов», комбинируя их вклад для итогового решения (пример — архитектура BB1).

Вторая «зима ИИ» (1988—1993)[править | править код]

Развитие специализированных Lisp-машин оказалось нерентабельным на фоне появления массовых Unix-рабочих станций с поддержкой LISP и Prolog. Поддержка экспертных систем оказалась слишком сложной и дорогой, особенно в медицине; финансирование быстро сократилось.

Формализация неопределённости[править | править код]

Активно внедрялись статистические методы: скрытые марковские модели, байесовские сети, статистическое реляционное обучение. Появились расширения логики первого порядка — немонотонная логика, системы поддержки истины, нечёткая логика (Л. Заде) для моделирования неопределённости и расплывчатости.

Машинное обучение[править | править код]

Для преодоления проблемы ручного наполнения баз знаний исследовались методы символического обучения: Meta-DENDRAL автоматизировал выведение правил на основе спектров, ID3 и C4.5 (Р. Куинлан) реализовали статистическую классификацию путём построения интерпретируемых деревьев решений.

Том Митчелл предложил обучение в пространстве версий; более формально, Лесли Вэлиант разработал теорию PAC-обучения. Развивались когнитивные архитектуры (например, ACT-R) и индуктивное логическое программирование, программы-аппрентисы, обучение по случаям и аналогиям, а также генетическое программирование.

Глубокое обучение и нейросимволический ИИ (2011-н.в.)[править | править код]

Бурное развитие глубокого обучения показало силу нейронных сетей при распознавании образов, обработки речи, генерации изображений, машинного перевода. Однако ограничения в объяснимости, устойчивости, общем здравом смысле вновь актуализировали запрос на нейросимволический ИИ — сочетание сильных сторон символических и нейросетевых методологий[3][4].

Нейросимволический ИИ: интеграция нейросетей и символических методов[править | править код]

Нейросимволический ИИ разрабатывает архитектуры, объединяющие обучающиеся методы и символическую обработку знаний, что, по мнению ряда учёных (Гарри Маркус, Генри Каутц, Франческа Росси и др.), необходимо для создания устойчивых когнитивных моделей, способных к рассуждению, обобщённому обучению и самоконтролю.

Системы глубокого обучения эффектно справляются с задачами типов восприятия (быстрое «Система 1» по Д. Канеману), тогда как символическое рассуждение — с дедукцией и объяснимым планированием (медленное «Система 2»).

Архитектуры нейросимволических систем включают модели, где, например, языковые модели используют символические выходы (BERT, GPT-3), а такие системы как AlphaGo сочетают символические методы поиска и оценку позиций через нейронные сети. Существуют гибридные схемы построения нейронных сетей из символических правил (Neural Theorem Prover), с прямым вызовом символического движка из нейросети и др.

Открытыми остаются вопросы: как оптимально интегрировать два подхода, как представлять символические структуры внутри нейронных сетей, как обучать и извлекать знание общего смысла и т.д[7].

Технические особенности

[править | править код]

Языки программирования для ИИ[править | править код]

Ключевым языком ИИ в США с конца 1950-х был LISP (Джон Маккарти, 1958), предложивший REPL, сборку мусора, динамическую типизацию, функции высшего порядка и рекурсию. LISP оказал влияние на многие языки общего назначения.

В Европе доминировал Prolog (Ален Кольмерауэр, Филипп Руссель), основанный на программировании на логике, хранящий правила и факты, осуществляющий запросы на поиск по ним. Prolog поддерживает обратную цепочку вывода, бэктрекинг и унификацию.

Япония в рамках проекта «Пятая генерация» делала ставку на Prolog и специализированное железо, а в США развивались LISP-машины. На современном этапе универсальным языком для ИИ стал Python, благодаря богатству библиотек для анализа данных, НЛП и глубокого обучения.

Поиск[править | править код]

Во многих задачах — планировании, удовлетворении ограничений, играх — применяются алгоритмы поиска в пространствах состояний: поиск в ширину, поиск в глубину, A*, поиск Монте-Карло по дереву. В задачах логического вывода ключевы алгоритмы — WalkSAT, конфликтно-обусловленное обучение дизъюнктов, DPLL; в игровых задачах — альфа-бета отсечение, minimax.

Представление знаний и рассуждение[править | править код]

Символический ИИ предложил разнообразные методы представления знаний: семантические сети, фреймы, формальная логика, онтологии. Специализированные логики (описательные, временные, эпистемические, модальные, вероятностные) позволяют формально моделировать сложные концепции и отношения.

Системы автоматического доказательства теорем (Prover9, ACL2, Vampire) работают с формальной логикой. Экспертные системы отделяют декларативные (база знаний) и процедурные компоненты, используя движки прямого или обратного вывода (CLIPS, Prolog).

Бытовое рассуждение и ограниченные домены[править | править код]

Идеи «фреймов» (М. Минский), скриптов (Р. Шенк), обширные базы общих знаний (Cyc), качественные симуляции (QSIM), простые интервальные и пространственные алгебры (Аллен, RCC) продвигались для моделирования здравого смысла и естественных рассуждений в AI.

Ограничения и согласование ограничений[править | править код]

Решение задач с ограничениями — отдельное направление: качественные пространственно-временные задачи (Wordle, Sudoku), символьные головоломки и производственные графики решаются средствами constraint programming, в том числе с помощью constraint logic programming.

Автоматическое планирование[править | править код]

От GPS c методом анализа «средства-цели» через STRIPS (планирование как доказательство теоремы) к подходям типа Graphplan (планирование с минимальной приверженностью) и Satplan (преобразование задачи в SAT).

Обработка естественного языка[править | править код]

Классические методы — синтаксический разбор (Parsing), токенизация, морфологический анализ — традиционно реализовывались средствами символического ИИ. Однако современные достижения в НЛП основаны на обучаемых моделях на базе трансформеров, зачастую непрозрачных семантически.

Агенты и мультиагентные системы[править | править код]

Программные агенты — автономные системы, взаимодействующие со средой и (в мультиагентных системах) друг с другом, разделяющие задачи, знания и адаптирующиеся к отказам. Современные архитектуры включают комбинации символических и нейросетевых компонентов.

Проблемы и споры

[править | править код]

Внутри символического ИИ выделялись «аккуратисты» (логико-ориентированные) и «небрежники» (гибкие, ситуативные), вне поля символического ИИ периодически доминировали противостояния с коннекционистскими парадигмами.

Проблема фреймов[править | править код]

Ограничения формальной логики в динамических доменах проявились в невозможности адекватно формализовать, что после каждого действия не меняется («frame problem»), или полностью описать все условия успешности действия («qualification problem»). Это привело к развитию немонотонных логик, поддержке истинности, вероятностных и обучающих методов.

Корректное представление здравого смысла (например, что нельзя сбивать пешехода, ведущего велосипед) остаётся трудной задачей как для символических, так и для нейросетевых моделей.

Философские и социологические дебаты: коннекционизм против символизма[править | править код]

Существовало три позиции среди коннекционистов: реализация символов в нейросетях, полный отказ от символической обработки и умеренный гибридный взгляд (например, Энди Кларк). В последние десятилетия нарастают тенденции интеграции двух подходов в нейросимволический ИИ.

Важный теоретический вопрос — существенны ли различия между символьным и коннекционистским представлением знаний с точки зрения универсальности и выразительной мощности.

Интеллект как воплощённость: «новый ИИ»[править | править код]

Воплощённое познание утверждает, что мышление неотделимо от тела и среды обитания, что привело к развитию поведенческих роботов. Родни Брукс и Nouvelle AI отвергли как символические, так и распределённые (нейросетевые) представления, акцентируя важность тестирования на реальных физических задачах.

Современные взгляды[править | править код]

Символический ИИ критикуют за отсутствие соединения с перцептивным опытом и неустойчивость в реальном мире; коннекционистский — за отсутствие объяснимых шагов и трудности с планированием; «новый ИИ» — за проблемы с обучением и накоплением знаний. Современные направления развивают гибридные интеллектуальные системы как наиболее перспективную стратегию[8].

Примечания

[править | править код]
  1. Logic-Based Artificial Intelligence (англ.). Stanford Encyclopedia of Philosophy. Stanford University (27 февраля 2024). Дата обращения: 11 июня 2024.
  2. Newell, Allen; Simon, Herbert A. (1 марта 1976). “Computer science as empirical inquiry: symbols and search”. Commun. ACM [англ.]. 19 (3): 113—126. DOI:10.1145/360018.360022. ISSN 0001-0782. Дата обращения 2024-06-11.
  3. 1 2 Rossi, Francesca Thinking Fast and Slow in AI. AAAI. Дата обращения: 11 июня 2024. Архивировано 7 марта 2025 года.
  4. 1 2 Selman, Bart AAAI Presidential Address: The State of AI. AAAI. Дата обращения: 11 июня 2024. Архивировано 7 марта 2025 года.
  5. Shustek, Len (июнь 2010). “An interview with Ed Feigenbaum”. Communications of the ACM [англ.]. 53 (6): 41—45. DOI:10.1145/1743546.1743564. ISSN 0001-0782. S2CID 10239007. Дата обращения 2024-06-11. Проверьте дату в |date= (справка на английском)
  6. The fascination with AI: what is artificial intelligence? (англ.). IONOS Digitalguide. Дата обращения: 11 июня 2024. Архивировано 29 июля 2025 года.
  7. Garcez, Artur d'Avila. Neural-Symbolic Cognitive Reasoning : [англ.] / Artur d'Avila Garcez, Luis C. Lamb, Dov M. Gabbay. — 1st. — Berlin-Heidelberg : Springer, 2009. — ISBN 978-3-540-73245-7. — doi:10.1007/978-3-540-73246-4.
  8. Kautz, Henry (2022). “The Third AI Summer: AAAI Robert S. Engelmore Memorial Lecture”. AI Magazine. 43 (1): 93—104. DOI:10.1609/aimag.v43i1.19122. Дата обращения 2024-06-11. |access-date= требует |url= (справка)