Символический искусственный интеллект

Символический искусственный интеллект (англ. symbolic artificial intelligence, также известный как классический искусственный интеллект или логико-ориентированный искусственный интеллект) — совокупность методов исследований в области искусственный интеллект, базирующихся на высокоуровневых (читаемых человеком) символьных представлениях задач, а также на формальной логике и поиске[1]. Символический искусственный интеллект использует инструменты такие, как логическое программирование, продукционные правила, семантические сети и фреймы, а также реализует приложения, включая знание-ориентированные системы (в частности, экспертные системы), символьная математика, автоматические доказатели теорем, онтологии, семантическая паутина, и системы автоматического планирования и расписания. Символический подход способствовал становлению таких направлений как поиск и оптимизация, символьные языки программирования, интеллектуальные агенты, мультиагентные системы, формальное знание и автоматизированное рассуждение.

В период с середины 1950-х до середины 1990-х годов символический искусственный интеллект был доминирующей парадигмой исследований ИИ. Учёные 1960—1970-х годов верили, что символический подход позволит создать системы с общим искусственным интеллектом, и рассматривали это своей главной целью[2]. Начальный энтузиазм и успехи привели к чрезмерным ожиданиям и последующему спаду («зима искусственного интеллекта»), а последняя волна интереса была связана с развитием экспертных систем. Постепенно основные трудности — управление неопределённостью, приобретение знаний, недостаточная гибкость — стимулировали интеграцию формальных и вероятностных методов и последовавший расцвет гибридных, символически-нейронных (нейросимволических) подходов[3][4].

История

Краткая история развития символического искусственного интеллекта прослеживается ниже. Временные периоды и термины основаны на лекции Генри Каутца 2020 года и статье История искусственного интеллекта.

Первый «летний сезон» ИИ: нерациональный оптимизм (1948—1966)

Первые успехи в ИИ пришлись на три основные области: искусственные нейронные сети, представление знаний и эвристический поиск. Достижения в этих направлениях способствовали высоким ожиданиям.

Подходы, вдохновлённые человеческим или животным интеллектом

Кибернетические подходы пытались воспроизвести процессы обратной связи между живым существом и средой. В 1948 году был построен робот-«черепаха» с датчиками, моторами и простейшей нейросетью. Эти идеи предвосхитили дальнейшее развитие нейронных сетей, обучения с подкреплением и ситуационной робототехники.

Одной из важнейших ранних символических программ стал Логический теоретик (Logic Theorist) (А. Ньюэлл, Г. Саймон и К. Шоу, 1955-56), сумевший автоматически доказать 38 теорем из Principia Mathematica Уайтхеда и Рассела. Впоследствии была создана система Обобщённый решатель задач (GPS), для решения задач методом поиска в пространстве состояний с использованием анализа средств и целей.

В 1960-х символические подходы добились больших успехов в симуляции интеллектуального поведения в структурированных задачах — играх, символьной математике, автоматическом доказательстве теорем. Исследования концентрировались в четырёх институтах: Карнеги-Меллон, Стенфорд, MIT и (позже) Эдинбургский университет.

Герберт Саймон и Аллен Ньюэлл формализовали навыки человеческого решения задач, что заложило основы ИИ, когнитивных наук и теории управления. Их команда использовала результаты психологических экспериментов для моделирования методов мышления человека.

Эвристический поиск

Ранние исследователи открыли универсальное применение знаний в виде эвристик — правил, ведущих поиск по наиболее перспективным направлениям. Появился вопрос: «Как реализовать эффективный неэкспериментальный поиск при экспоненциальной сложности?» — ответом стал эвристический подход. Позже алгоритм A* стал базовой схемой полного и оптимального эвристического поиска, используемой во множестве современных алгоритмов ИИ.

Представление знаний и рассуждения

Ранние работы охватывали как формальные методы на базе предикатной логики первого порядка, так и попытки менее формального моделирования бытового рассуждения.

Формальное моделирование рассуждений с помощью логики: «аккуратисты»

Джон Маккарти полагал, что компьютеры могут использовать логику для решения задач, без необходимости имитировать конкретные психологические механизмы человека. Его лаборатория в Стэнфорде занималась формальной логикой в задачах представления знаний, планирования и обучения. В Европе основной акцент делался на Prolog и логическое программирование.

Имплицитные знания, фреймы и скрипты: «небрежники»

В MIT (М. Минский, С. Пейперт и др.) пришли к выводу, что сложные задачи, такие как зрение и обработка языка, требуют не универсальных, а гибких, подстроенных решений. Роджер Шенк противопоставил эти «небрежные» методы «аккуратным». Примером подхода «небрежников» служит проект Cyc, где знания вводятся вручную.

Первая «зима ИИ»: крушение ожиданий (1967—1977)

К середине 1960-х стало ясно, что создание полноценного ИИ гораздо труднее предполагавшегося; программы DARPA были свёрнуты, ключевые проекты закрылись. В Великобритании критический доклад Лайтхилла привёл к схожим последствиям: утверждалось, что успехи в «игрушечных задачах» не масштабируются на реальный мир из-за комбинаторного взрыва.

Знание-ориентированные системы

Выявились ограничения универсальных методов, и исследователи разных школ стали насыщать приложения объёмными знаниями. Как сформулировал Эдвард Фейгенбаум: «В знании — сила»[5]. Принцип объёмности знаний предполагал, что для решения сложной задачи программа должна знать много о мире задачи.

Экспертные системы: успех на практике

Начался расцвет экспертных систем, впервые воплотивших коммерчески успешный ИИ[6]. Классическими примерами стали DENDRAL, MYCIN, Internist-I, CADUCEUS, GUIDON, XCON.

DENDRAL стал первой экспертной системой, основанной на знание-интенсивных методах поиска; MYCIN показал возможности экспертных систем в медицине, а XCON сэкономил миллионы долларов благодаря автоматизации конфигурирования компьютеров VAX.

Архитектура экспертных систем

В основе находится база знаний (правила или сети продукций), по которой работают процедуры вывода (например, OPS5, CLIPS, Drools). Системы могут реализовывать как прямой (от фактов — к выводам), так и обратный (от целей — к данным) вывод. Soar поддерживает метауровень рассуждения — оценку собственных стратегий.

Blackboard-системы моделируют коллективное решение задач с множеством «экспертов», комбинируя их вклад для итогового решения (пример — архитектура BB1).

Вторая «зима ИИ» (1988—1993)

Развитие специализированных Lisp-машин оказалось нерентабельным на фоне появления массовых Unix-рабочих станций с поддержкой LISP и Prolog. Поддержка экспертных систем оказалась слишком сложной и дорогой, особенно в медицине; финансирование быстро сократилось.

Формализация неопределённости

Активно внедрялись статистические методы: скрытые марковские модели, байесовские сети, статистическое реляционное обучение. Появились расширения логики первого порядка — немонотонная логика, системы поддержки истины, нечёткая логика (Л. Заде) для моделирования неопределённости и расплывчатости.

Машинное обучение

Для преодоления проблемы ручного наполнения баз знаний исследовались методы символического обучения: Meta-DENDRAL автоматизировал выведение правил на основе спектров, ID3 и C4.5 (Р. Куинлан) реализовали статистическую классификацию путём построения интерпретируемых деревьев решений.

Том Митчелл предложил обучение в пространстве версий; более формально, Лесли Вэлиант разработал теорию PAC-обучения. Развивались когнитивные архитектуры (например, ACT-R) и индуктивное логическое программирование, программы-аппрентисы, обучение по случаям и аналогиям, а также генетическое программирование.

Глубокое обучение и нейросимволический ИИ (2011-н.в.)

Бурное развитие глубокого обучения показало силу нейронных сетей при распознавании образов, обработки речи, генерации изображений, машинного перевода. Однако ограничения в объяснимости, устойчивости, общем здравом смысле вновь актуализировали запрос на нейросимволический ИИ — сочетание сильных сторон символических и нейросетевых методологий[3][4].

Нейросимволический ИИ: интеграция нейросетей и символических методов

Нейросимволический ИИ разрабатывает архитектуры, объединяющие обучающиеся методы и символическую обработку знаний, что, по мнению ряда учёных (Гарри Маркус, Генри Каутц, Франческа Росси и др.), необходимо для создания устойчивых когнитивных моделей, способных к рассуждению, обобщённому обучению и самоконтролю.

Системы глубокого обучения эффектно справляются с задачами типов восприятия (быстрое «Система 1» по Д. Канеману), тогда как символическое рассуждение — с дедукцией и объяснимым планированием (медленное «Система 2»).

Архитектуры нейросимволических систем включают модели, где, например, языковые модели используют символические выходы (BERT, GPT-3), а такие системы как AlphaGo сочетают символические методы поиска и оценку позиций через нейронные сети. Существуют гибридные схемы построения нейронных сетей из символических правил (Neural Theorem Prover), с прямым вызовом символического движка из нейросети и др.

Открытыми остаются вопросы: как оптимально интегрировать два подхода, как представлять символические структуры внутри нейронных сетей, как обучать и извлекать знание общего смысла и т.д[7].

Технические особенности

Языки программирования для ИИ

Ключевым языком ИИ в США с конца 1950-х был LISP (Джон Маккарти, 1958), предложивший REPL, сборку мусора, динамическую типизацию, функции высшего порядка и рекурсию. LISP оказал влияние на многие языки общего назначения.

В Европе доминировал Prolog (Ален Кольмерауэр, Филипп Руссель), основанный на программировании на логике, хранящий правила и факты, осуществляющий запросы на поиск по ним. Prolog поддерживает обратную цепочку вывода, бэктрекинг и унификацию.

Япония в рамках проекта «Пятая генерация» делала ставку на Prolog и специализированное железо, а в США развивались LISP-машины. На современном этапе универсальным языком для ИИ стал Python, благодаря богатству библиотек для анализа данных, НЛП и глубокого обучения.

Поиск

Во многих задачах — планировании, удовлетворении ограничений, играх — применяются алгоритмы поиска в пространствах состояний: поиск в ширину, поиск в глубину, A*, поиск Монте-Карло по дереву. В задачах логического вывода ключевы алгоритмы — WalkSAT, конфликтно-обусловленное обучение дизъюнктов, DPLL; в игровых задачах — альфа-бета отсечение, minimax.

Представление знаний и рассуждение

Символический ИИ предложил разнообразные методы представления знаний: семантические сети, фреймы, формальная логика, онтологии. Специализированные логики (описательные, временные, эпистемические, модальные, вероятностные) позволяют формально моделировать сложные концепции и отношения.

Системы автоматического доказательства теорем (Prover9, ACL2, Vampire) работают с формальной логикой. Экспертные системы отделяют декларативные (база знаний) и процедурные компоненты, используя движки прямого или обратного вывода (CLIPS, Prolog).

Бытовое рассуждение и ограниченные домены

Идеи «фреймов» (М. Минский), скриптов (Р. Шенк), обширные базы общих знаний (Cyc), качественные симуляции (QSIM), простые интервальные и пространственные алгебры (Аллен, RCC) продвигались для моделирования здравого смысла и естественных рассуждений в AI.

Ограничения и согласование ограничений

Решение задач с ограничениями — отдельное направление: качественные пространственно-временные задачи (Wordle, Sudoku), символьные головоломки и производственные графики решаются средствами constraint programming, в том числе с помощью constraint logic programming.

Автоматическое планирование

От GPS c методом анализа «средства-цели» через STRIPS (планирование как доказательство теоремы) к подходям типа Graphplan (планирование с минимальной приверженностью) и Satplan (преобразование задачи в SAT).

Обработка естественного языка

Классические методы — синтаксический разбор (Parsing), токенизация, морфологический анализ — традиционно реализовывались средствами символического ИИ. Однако современные достижения в НЛП основаны на обучаемых моделях на базе трансформеров, зачастую непрозрачных семантически.

Агенты и мультиагентные системы

Программные агенты — автономные системы, взаимодействующие со средой и (в мультиагентных системах) друг с другом, разделяющие задачи, знания и адаптирующиеся к отказам. Современные архитектуры включают комбинации символических и нейросетевых компонентов.

Проблемы и споры

Внутри символического ИИ выделялись «аккуратисты» (логико-ориентированные) и «небрежники» (гибкие, ситуативные), вне поля символического ИИ периодически доминировали противостояния с коннекционистскими парадигмами.

Проблема фреймов

Ограничения формальной логики в динамических доменах проявились в невозможности адекватно формализовать, что после каждого действия не меняется («frame problem»), или полностью описать все условия успешности действия («qualification problem»). Это привело к развитию немонотонных логик, поддержке истинности, вероятностных и обучающих методов.

Корректное представление здравого смысла (например, что нельзя сбивать пешехода, ведущего велосипед) остаётся трудной задачей как для символических, так и для нейросетевых моделей.

Философские и социологические дебаты: коннекционизм против символизма

Существовало три позиции среди коннекционистов: реализация символов в нейросетях, полный отказ от символической обработки и умеренный гибридный взгляд (например, Энди Кларк). В последние десятилетия нарастают тенденции интеграции двух подходов в нейросимволический ИИ.

Важный теоретический вопрос — существенны ли различия между символьным и коннекционистским представлением знаний с точки зрения универсальности и выразительной мощности.

Интеллект как воплощённость: «новый ИИ»

Воплощённое познание утверждает, что мышление неотделимо от тела и среды обитания, что привело к развитию поведенческих роботов. Родни Брукс и Nouvelle AI отвергли как символические, так и распределённые (нейросетевые) представления, акцентируя важность тестирования на реальных физических задачах.

Современные взгляды

Символический ИИ критикуют за отсутствие соединения с перцептивным опытом и неустойчивость в реальном мире; коннекционистский — за отсутствие объяснимых шагов и трудности с планированием; «новый ИИ» — за проблемы с обучением и накоплением знаний. Современные направления развивают гибридные интеллектуальные системы как наиболее перспективную стратегию[8].

См. также

Примечания