Символический искусственный интеллект
Символический искусственный интеллект (англ. symbolic artificial intelligence, также известный как классический искусственный интеллект или логико-ориентированный искусственный интеллект) — совокупность методов исследований в области искусственный интеллект, базирующихся на высокоуровневых (читаемых человеком) символьных представлениях задач, а также на формальной логике и поиске[1]. Символический искусственный интеллект использует инструменты такие, как логическое программирование, продукционные правила, семантические сети и фреймы, а также реализует приложения, включая знание-ориентированные системы (в частности, экспертные системы), символьная математика, автоматические доказатели теорем, онтологии, семантическая паутина, и системы автоматического планирования и расписания. Символический подход способствовал становлению таких направлений как поиск и оптимизация, символьные языки программирования, интеллектуальные агенты, мультиагентные системы, формальное знание и автоматизированное рассуждение.
В период с середины 1950-х до середины 1990-х годов символический искусственный интеллект был доминирующей парадигмой исследований ИИ. Учёные 1960—1970-х годов верили, что символический подход позволит создать системы с общим искусственным интеллектом, и рассматривали это своей главной целью[2]. Начальный энтузиазм и успехи привели к чрезмерным ожиданиям и последующему спаду («зима искусственного интеллекта»), а последняя волна интереса была связана с развитием экспертных систем. Постепенно основные трудности — управление неопределённостью, приобретение знаний, недостаточная гибкость — стимулировали интеграцию формальных и вероятностных методов и последовавший расцвет гибридных, символически-нейронных (нейросимволических) подходов[3][4].
История
Краткая история развития символического искусственного интеллекта прослеживается ниже. Временные периоды и термины основаны на лекции Генри Каутца 2020 года и статье История искусственного интеллекта.
Первый «летний сезон» ИИ: нерациональный оптимизм (1948—1966)
Первые успехи в ИИ пришлись на три основные области: искусственные нейронные сети, представление знаний и эвристический поиск. Достижения в этих направлениях способствовали высоким ожиданиям.
Подходы, вдохновлённые человеческим или животным интеллектом
Кибернетические подходы пытались воспроизвести процессы обратной связи между живым существом и средой. В 1948 году был построен робот-«черепаха» с датчиками, моторами и простейшей нейросетью. Эти идеи предвосхитили дальнейшее развитие нейронных сетей, обучения с подкреплением и ситуационной робототехники.
Одной из важнейших ранних символических программ стал Логический теоретик (Logic Theorist) (А. Ньюэлл, Г. Саймон и К. Шоу, 1955-56), сумевший автоматически доказать 38 теорем из Principia Mathematica Уайтхеда и Рассела. Впоследствии была создана система Обобщённый решатель задач (GPS), для решения задач методом поиска в пространстве состояний с использованием анализа средств и целей.
В 1960-х символические подходы добились больших успехов в симуляции интеллектуального поведения в структурированных задачах — играх, символьной математике, автоматическом доказательстве теорем. Исследования концентрировались в четырёх институтах: Карнеги-Меллон, Стенфорд, MIT и (позже) Эдинбургский университет.
Герберт Саймон и Аллен Ньюэлл формализовали навыки человеческого решения задач, что заложило основы ИИ, когнитивных наук и теории управления. Их команда использовала результаты психологических экспериментов для моделирования методов мышления человека.
Эвристический поиск
Ранние исследователи открыли универсальное применение знаний в виде эвристик — правил, ведущих поиск по наиболее перспективным направлениям. Появился вопрос: «Как реализовать эффективный неэкспериментальный поиск при экспоненциальной сложности?» — ответом стал эвристический подход. Позже алгоритм A* стал базовой схемой полного и оптимального эвристического поиска, используемой во множестве современных алгоритмов ИИ.
Представление знаний и рассуждения
Ранние работы охватывали как формальные методы на базе предикатной логики первого порядка, так и попытки менее формального моделирования бытового рассуждения.
Формальное моделирование рассуждений с помощью логики: «аккуратисты»
Джон Маккарти полагал, что компьютеры могут использовать логику для решения задач, без необходимости имитировать конкретные психологические механизмы человека. Его лаборатория в Стэнфорде занималась формальной логикой в задачах представления знаний, планирования и обучения. В Европе основной акцент делался на Prolog и логическое программирование.
Имплицитные знания, фреймы и скрипты: «небрежники»
В MIT (М. Минский, С. Пейперт и др.) пришли к выводу, что сложные задачи, такие как зрение и обработка языка, требуют не универсальных, а гибких, подстроенных решений. Роджер Шенк противопоставил эти «небрежные» методы «аккуратным». Примером подхода «небрежников» служит проект Cyc, где знания вводятся вручную.
Первая «зима ИИ»: крушение ожиданий (1967—1977)
К середине 1960-х стало ясно, что создание полноценного ИИ гораздо труднее предполагавшегося; программы DARPA были свёрнуты, ключевые проекты закрылись. В Великобритании критический доклад Лайтхилла привёл к схожим последствиям: утверждалось, что успехи в «игрушечных задачах» не масштабируются на реальный мир из-за комбинаторного взрыва.
Знание-ориентированные системы
Выявились ограничения универсальных методов, и исследователи разных школ стали насыщать приложения объёмными знаниями. Как сформулировал Эдвард Фейгенбаум: «В знании — сила»[5]. Принцип объёмности знаний предполагал, что для решения сложной задачи программа должна знать много о мире задачи.
Экспертные системы: успех на практике
Начался расцвет экспертных систем, впервые воплотивших коммерчески успешный ИИ[6]. Классическими примерами стали DENDRAL, MYCIN, Internist-I, CADUCEUS, GUIDON, XCON.
DENDRAL стал первой экспертной системой, основанной на знание-интенсивных методах поиска; MYCIN показал возможности экспертных систем в медицине, а XCON сэкономил миллионы долларов благодаря автоматизации конфигурирования компьютеров VAX.
Архитектура экспертных систем
В основе находится база знаний (правила или сети продукций), по которой работают процедуры вывода (например, OPS5, CLIPS, Drools). Системы могут реализовывать как прямой (от фактов — к выводам), так и обратный (от целей — к данным) вывод. Soar поддерживает метауровень рассуждения — оценку собственных стратегий.
Blackboard-системы моделируют коллективное решение задач с множеством «экспертов», комбинируя их вклад для итогового решения (пример — архитектура BB1).
Вторая «зима ИИ» (1988—1993)
Развитие специализированных Lisp-машин оказалось нерентабельным на фоне появления массовых Unix-рабочих станций с поддержкой LISP и Prolog. Поддержка экспертных систем оказалась слишком сложной и дорогой, особенно в медицине; финансирование быстро сократилось.
Формализация неопределённости
Активно внедрялись статистические методы: скрытые марковские модели, байесовские сети, статистическое реляционное обучение. Появились расширения логики первого порядка — немонотонная логика, системы поддержки истины, нечёткая логика (Л. Заде) для моделирования неопределённости и расплывчатости.
Машинное обучение
Для преодоления проблемы ручного наполнения баз знаний исследовались методы символического обучения: Meta-DENDRAL автоматизировал выведение правил на основе спектров, ID3 и C4.5 (Р. Куинлан) реализовали статистическую классификацию путём построения интерпретируемых деревьев решений.
Том Митчелл предложил обучение в пространстве версий; более формально, Лесли Вэлиант разработал теорию PAC-обучения. Развивались когнитивные архитектуры (например, ACT-R) и индуктивное логическое программирование, программы-аппрентисы, обучение по случаям и аналогиям, а также генетическое программирование.
Глубокое обучение и нейросимволический ИИ (2011-н.в.)
Бурное развитие глубокого обучения показало силу нейронных сетей при распознавании образов, обработки речи, генерации изображений, машинного перевода. Однако ограничения в объяснимости, устойчивости, общем здравом смысле вновь актуализировали запрос на нейросимволический ИИ — сочетание сильных сторон символических и нейросетевых методологий[3][4].
Нейросимволический ИИ: интеграция нейросетей и символических методов
Нейросимволический ИИ разрабатывает архитектуры, объединяющие обучающиеся методы и символическую обработку знаний, что, по мнению ряда учёных (Гарри Маркус, Генри Каутц, Франческа Росси и др.), необходимо для создания устойчивых когнитивных моделей, способных к рассуждению, обобщённому обучению и самоконтролю.
Системы глубокого обучения эффектно справляются с задачами типов восприятия (быстрое «Система 1» по Д. Канеману), тогда как символическое рассуждение — с дедукцией и объяснимым планированием (медленное «Система 2»).
Архитектуры нейросимволических систем включают модели, где, например, языковые модели используют символические выходы (BERT, GPT-3), а такие системы как AlphaGo сочетают символические методы поиска и оценку позиций через нейронные сети. Существуют гибридные схемы построения нейронных сетей из символических правил (Neural Theorem Prover), с прямым вызовом символического движка из нейросети и др.
Открытыми остаются вопросы: как оптимально интегрировать два подхода, как представлять символические структуры внутри нейронных сетей, как обучать и извлекать знание общего смысла и т.д[7].
Технические особенности
Языки программирования для ИИ
Ключевым языком ИИ в США с конца 1950-х был LISP (Джон Маккарти, 1958), предложивший REPL, сборку мусора, динамическую типизацию, функции высшего порядка и рекурсию. LISP оказал влияние на многие языки общего назначения.
В Европе доминировал Prolog (Ален Кольмерауэр, Филипп Руссель), основанный на программировании на логике, хранящий правила и факты, осуществляющий запросы на поиск по ним. Prolog поддерживает обратную цепочку вывода, бэктрекинг и унификацию.
Япония в рамках проекта «Пятая генерация» делала ставку на Prolog и специализированное железо, а в США развивались LISP-машины. На современном этапе универсальным языком для ИИ стал Python, благодаря богатству библиотек для анализа данных, НЛП и глубокого обучения.
Поиск
Во многих задачах — планировании, удовлетворении ограничений, играх — применяются алгоритмы поиска в пространствах состояний: поиск в ширину, поиск в глубину, A*, поиск Монте-Карло по дереву. В задачах логического вывода ключевы алгоритмы — WalkSAT, конфликтно-обусловленное обучение дизъюнктов, DPLL; в игровых задачах — альфа-бета отсечение, minimax.
Представление знаний и рассуждение
Символический ИИ предложил разнообразные методы представления знаний: семантические сети, фреймы, формальная логика, онтологии. Специализированные логики (описательные, временные, эпистемические, модальные, вероятностные) позволяют формально моделировать сложные концепции и отношения.
Системы автоматического доказательства теорем (Prover9, ACL2, Vampire) работают с формальной логикой. Экспертные системы отделяют декларативные (база знаний) и процедурные компоненты, используя движки прямого или обратного вывода (CLIPS, Prolog).
Бытовое рассуждение и ограниченные домены
Идеи «фреймов» (М. Минский), скриптов (Р. Шенк), обширные базы общих знаний (Cyc), качественные симуляции (QSIM), простые интервальные и пространственные алгебры (Аллен, RCC) продвигались для моделирования здравого смысла и естественных рассуждений в AI.
Ограничения и согласование ограничений
Решение задач с ограничениями — отдельное направление: качественные пространственно-временные задачи (Wordle, Sudoku), символьные головоломки и производственные графики решаются средствами constraint programming, в том числе с помощью constraint logic programming.
Автоматическое планирование
От GPS c методом анализа «средства-цели» через STRIPS (планирование как доказательство теоремы) к подходям типа Graphplan (планирование с минимальной приверженностью) и Satplan (преобразование задачи в SAT).
Обработка естественного языка
Классические методы — синтаксический разбор (Parsing), токенизация, морфологический анализ — традиционно реализовывались средствами символического ИИ. Однако современные достижения в НЛП основаны на обучаемых моделях на базе трансформеров, зачастую непрозрачных семантически.
Агенты и мультиагентные системы
Программные агенты — автономные системы, взаимодействующие со средой и (в мультиагентных системах) друг с другом, разделяющие задачи, знания и адаптирующиеся к отказам. Современные архитектуры включают комбинации символических и нейросетевых компонентов.
Проблемы и споры
Внутри символического ИИ выделялись «аккуратисты» (логико-ориентированные) и «небрежники» (гибкие, ситуативные), вне поля символического ИИ периодически доминировали противостояния с коннекционистскими парадигмами.
Проблема фреймов
Ограничения формальной логики в динамических доменах проявились в невозможности адекватно формализовать, что после каждого действия не меняется («frame problem»), или полностью описать все условия успешности действия («qualification problem»). Это привело к развитию немонотонных логик, поддержке истинности, вероятностных и обучающих методов.
Корректное представление здравого смысла (например, что нельзя сбивать пешехода, ведущего велосипед) остаётся трудной задачей как для символических, так и для нейросетевых моделей.
Философские и социологические дебаты: коннекционизм против символизма
Существовало три позиции среди коннекционистов: реализация символов в нейросетях, полный отказ от символической обработки и умеренный гибридный взгляд (например, Энди Кларк). В последние десятилетия нарастают тенденции интеграции двух подходов в нейросимволический ИИ.
Важный теоретический вопрос — существенны ли различия между символьным и коннекционистским представлением знаний с точки зрения универсальности и выразительной мощности.
Интеллект как воплощённость: «новый ИИ»
Воплощённое познание утверждает, что мышление неотделимо от тела и среды обитания, что привело к развитию поведенческих роботов. Родни Брукс и Nouvelle AI отвергли как символические, так и распределённые (нейросетевые) представления, акцентируя важность тестирования на реальных физических задачах.
Современные взгляды
Символический ИИ критикуют за отсутствие соединения с перцептивным опытом и неустойчивость в реальном мире; коннекционистский — за отсутствие объяснимых шагов и трудности с планированием; «новый ИИ» — за проблемы с обучением и накоплением знаний. Современные направления развивают гибридные интеллектуальные системы как наиболее перспективную стратегию[8].
См. также
Примечания
- ↑ Logic-Based Artificial Intelligence (англ.). Stanford Encyclopedia of Philosophy. Stanford University (27 февраля 2024). Дата обращения: 11 июня 2024.
- ↑ Newell, Allen; Simon, Herbert A. (1 марта 1976). “Computer science as empirical inquiry: symbols and search”. Commun. ACM [англ.]. 19 (3): 113—126. DOI:10.1145/360018.360022. ISSN 0001-0782. Дата обращения 2024-06-11.
- ↑ 1 2 Rossi, Francesca Thinking Fast and Slow in AI. AAAI. Дата обращения: 11 июня 2024. Архивировано 7 марта 2025 года.
- ↑ 1 2 Selman, Bart AAAI Presidential Address: The State of AI. AAAI. Дата обращения: 11 июня 2024. Архивировано 7 марта 2025 года.
- ↑ Shustek, Len (июнь 2010). “An interview with Ed Feigenbaum”. Communications of the ACM [англ.]. 53 (6): 41—45. DOI:10.1145/1743546.1743564. ISSN 0001-0782. S2CID 10239007. Дата обращения 2024-06-11. Проверьте дату в
|date=(справка на английском) - ↑ The fascination with AI: what is artificial intelligence? (англ.). IONOS Digitalguide. Дата обращения: 11 июня 2024. Архивировано 29 июля 2025 года.
- ↑ Garcez, Artur d'Avila. Neural-Symbolic Cognitive Reasoning : [англ.] / Artur d'Avila Garcez, Luis C. Lamb, Dov M. Gabbay. — 1st. — Berlin-Heidelberg : Springer, 2009. — ISBN 978-3-540-73245-7. — doi:10.1007/978-3-540-73246-4.
- ↑ Kautz, Henry (2022). “The Third AI Summer: AAAI Robert S. Engelmore Memorial Lecture”. AI Magazine. 43 (1): 93—104. DOI:10.1609/aimag.v43i1.19122. Дата обращения 2024-06-11.
|access-date=требует|url=(справка)