Зима искусственного интеллекта

Зима искусственного интеллекта — период в истории исследований искусственного интеллекта, характеризующийся сокращением финансирования и общим снижением интереса к этой области[1]. Термин был введён по аналогии с понятием «ядерная зима»[2]. Развитие искусственного интеллекта проходило несколько циклов: периоды ажиотажа сменялись «зимами» — разочарованием, критикой и сокращением финансирования, а затем спустя годы или десятилетия интерес вновь возрастал[3].

История

Впервые термин был озвучен в 1984 году на ежегодной встрече Американской ассоциации искусственного интеллекта: на обсуждении Роджер Шэнк и Марвин Минский, ведущие исследователи области — предупредили бизнес-сообщество о неадекватно завышенных ожиданиях и предсказали спад, как это уже случалось ранее (так называемая «первая зима» 1970-х годов). После этого настроения пессимизма распространились среди исследователей и в СМИ, что привело к снижению финансирования и свёртыванию крупных проектов[2], а к 1987 году индустрия искусственного интеллекта практически рухнула[2].

Подобно другим технологическим «пузырям» (например, железнодорожная мания, пузырь доткомов), «зимы искусственного интеллекта» означали крах ожиданий у руководителей, принимающих решения о финансировании: чиновников, инвесторов, венчурных капиталистов, управленцев. Несмотря на такие циклы «взлётов и падений», исследования в сфере искусственного интеллекта продолжались, а после периодов спада интерес инвесторов возобновлялся по мере появления новых результатов. В 2005 году Рэй Курцвейл отмечал: «зима искусственного интеллекта» не остановила развитие области, и к середине 2000-х тысячами приложений искусственного интеллекта пользовались во всех отраслях экономики[4].

Периодизация

Две наиболее длительные и значимые «зимы искусственного интеллекта» относят к 1974—1980 и 1987—1993 годам[5][6]. Менее значимыми раздорами считаются: неудачи проектов машинного перевода в 1966 году, спад популярности коннекционизма в 1970 году, а также другие эпизоды:

Ранние эпизоды

Машинный перевод и отчёт ALPAC 1966 года

Во время холодной войны правительство США инвестировало в автоматический перевод русских документов. С 1954 года велись интенсивные работы, и изначально успехов ожидали быстро ввиду новых грамматических работ Ноама Хомского. Однако вскоре выяснилось, что машинам недоступно понимание контекста и разрешение лексической неоднозначности[7]. Согласно известной легенде, английское выражение «the spirit is willing but the flesh is weak» («дух бодр, плоть же немощна») при машинном переводе и обратном возвращении означало «the vodka is good but the meat is rotten» («водка хорошая, но мясо протухло»), что в дальнейшем стало известно как проблема здравого смысла.

В 1964 году Национальный исследовательский совет США создал ALPAC — консультативный комитет по автоматической обработке языков. В 1966 году комитет заключил, что машинный перевод дороже, менее точен и медленнее, чем человеческий; финансирование было резко сокращено, и исследования постепенно были остановлены[7].

В XXI веке машинный перевод остаётся сложной, хотя частично решённой задачей (Google Translate, Яндекс Переводчик).

Отказ от коннекционизма в 1969 году

Ранние работы по искусственному интеллекту строились на сетях из соединённых блоков — так называемом коннекционизме. Примером была модель перцептрона Фрэнка Розенблатта. До конца 1950-х преобладал именно этот подход, но позже акцент сместился на символьные рассуждения (symbolic reasoning). Интерес к перцептронам угас после критики в книге «Perceptrons» Минского и Пейперта.

Развитие в этом направлении возродилось только в середине 1980-х благодаря работам Джона Хопфилда, Дэвида Румельхарта и других. Сам Розенблатт погиб незадолго после выхода книги «Perceptrons» и не дожил до следующей волны интереса.

Неудачи 1974 года

Отчёт Лайтхилла

В 1973 году парламент Великобритании поручил сэру Джеймсу Лайтхиллу проверить состояние исследований искусственного интеллекта. Его отчёт был крайне критичен, особенно отмечая трудности с «комбинаторным взрывом»: многие алгоритмы искусственного интеллекта оказывались эффективными только для «игрушечных» задач[8]. Отчёт привёл к сокращению финансирования искусственного интеллекта в Великобритании; крупномасштабные исследования возобновились только в 1983 году.

Сокращение финансирования DARPA в начале 1970-х

В 1960-х DARPA финансировало крупные проекты искусственного интеллекта, не предъявляя жёстких требований к результатам. Всё изменилось, когда после 1969 года, с вступлением поправки Мэнсфилда, DARPA стала требовать от исследований чёткой отдачи. После череды неудач и критики финансирование было значительно сокращено; к 1974 году найти поддержку для проектов по искусственному интеллекту стало сложно.

Провал SUR

DARPA сильно разочаровалась в команде Университета Карнеги — Меллона, занимавшейся системой распознавания речи (SUR). Ожидалась система для голосового управления, но созданная система распознавала речь только ограниченным образом. В 1974 году финансирование было прекращено[9]. Позднее наработки той группы использовались в коммерческих системах, а к 2001 году рынок распознавания речи достиг 4 млрд долларов.

Неудачи конца 1980-х и начала 1990-х годов

Крах рынка лисп-машин в 1987 году

В 1980-х экспертные системы (разновидность искусственного интеллекта) приобрели огромную популярность, особенно система XCON для корпорации Digital Equipment. К середине десятилетия был сформирован рынок специализированных компьютеров — лисп-машин, предназначенных для работы с языком Lisp. Однако к 1987 году рынок рухнул: универсальные рабочие станции (например, Sun Microsystems) и доступные десктопы стали превосходить лисп-машины по мощности и цене; соответствующие среды Lisp появились и на них[10].[11] Многие компании обанкротились или ушли с рынка.

Падение популярности экспертных систем

Начало 1990-х годов ознаменовалось спадом интереса к экспертным системам: они оказались дорогими в обслуживании, сложными для обновления и неустойчивыми к необычным входным данным. Проблемы надёжности и сложности развития заставили разработчиков переключиться на другие направления (рассуждение на основе прецедентов, объектно-ориентированное программирование).

Фиаско компьютеров пятого поколения

В 1981 году японское министерство международной торговли и промышленности выделило 850 млн долларов на проект компьютеров пятого поколения. Заданные амбициозные цели к 1991 году не были достигнуты, часть задач оставалась нерешённой и в 2000-х годах. Проект завершился без ожидаемых результатов.

Сокращение Инициативы стратегических вычислений

В ответ на появление пятого поколения DARPA инициировала собственную программу (Strategic Computing Initiative, SCI), направленную на создание систем искусственного интеллекта, суперкомпьютеров и микроэлектроники. Однако к 1987 году её руководитель Джек Шварц резко сократил финансирование искусственного интеллекта, оставив лишь несколько узких проектов.

События после зимы искусственного интеллекта

Репутация

К середине 2000-х годов термин «искусственный интеллект» по-прежнему вызывал скепсис и ассоциировался с невыполненными обещаниями или провалами[12].[13][14] Множество учёных намеренно предпочитали использовать термины «информатика», «машинное обучение», «когнитивные системы», «вычислительный интеллект» и т.п. — чтобы избежать негативной коннотации и облегчить получение финансирования[14].

Распространение

С начала 2000-х ИИ-технологии стали широко применяться — в машинном переводе, добыче данных, промышленной робототехнике, логистике, поисковых системах и многих других сферах[15]. Однако успешные применения нередко переставали ассоциироваться с «искусственным интеллектом»: когда технология становилась достаточно распространённой, её относили к иной категории. В коммерции особенно успешной оказалась нечеткая логика, машинное обучение и эвристический анализ данных.

Финансирование

В конце 2000-х структура финансирования ИИ сместилась в сторону прикладных исследований и междисциплинарных проектов. Основными источниками были DARPA в США и европейская программа EU-FP7.

DARPA поддерживала программы The Grand Challenge, системы предупреждения угроз (CT2WS), когнитивные технологии и др. В ЕС инвестировали в когнитивные системы, цифровые библиотеки, микроэлектронику[16].

Опасения новой зимы

Высказывались опасения, что новая «зима искусственного интеллекта» может быть вызвана чрезмерно завышенными ожиданиями учёных или маркетинговыми обещаниями компаний-разработчиков. Например, к такому сценарию опасались привести выход проекта Cog по созданию искусственного детского разума.

Джеймс Хендлер в 2008 году отмечал тенденцию к прикладным и междисциплинарным исследованиям, что грозит исчерпанием «инновационного конвейера» и повторением «зимы»[11].

Наступление весны

Регулярно появлялись сообщения о «возрождении» и даже «весне искусственного интеллекта»:[17] с 1990-х рост значимости прикладных решений был очевиден, а в 2000-х финансирование и внедрение ИИ достигли новых высот[18].

Причины возникновения

Ажиотаж

Зима искусственного интеллекта — закономерный итог слишком раздутых ожиданий (по аналогии с экономическим пузырём). Технологический цикл развития обычно включает «пик завышенных ожиданий» и последующее «разочарование», когда реальные возможности отстают от возложенных на них надежд.

Организационные причины

Из-за междисциплинарного характера исследований ИИ такие проекты в университетах часто страдают при сокращении финансирования.

Экономические причины

Экономические спады дают дополнительный эффект: сокращается финансирование фундаментальных и рискованных направлений, в первую очередь — искусственного интеллекта.

Недостаток вычислительных мощностей

Отсутствие необходимых аппаратных ресурсов ограничивало возможности реализации даже самых перспективных идей (например, нейронных сетей).

Пустой конвейер

Если прекращается поток результатов, то через несколько лет это сказывается на прикладных и коммерческих технологиях (эффект «пустого конвейера»).

Неспособность адаптироваться

Крах рынка специализированных машин и большой конкуренции более дешёвых и простых решений также считается одной из причин зимы искусственного интеллекта[11].

Дебаты о прошлом и будущем ИИ

Философы, когнитивисты и специалисты по информатике ведут активную дискуссию о причинах предыдущих неудач и прогнозах развития искусственного интеллекта. Например, Хьюберт Дрейфус ещё с 1960-х годов предсказывал несостоятельность основных направлений исследований ИИ. Ноам Хомский также ставил под сомнение стратегию, основанную на статистических методах и машинном обучении, в полемике с Питером Норвигом[19].[20][21]

Примечания

Литература

  • Crevier, Daniel. AI: The Tumultuous Search Artificial Intelligence. — New York, NY: BasicBooks, 1993. ISBN 0-465-02997-3. (на англ.)
  • Hendler, James. Where Are All the Intelligent Agents? // IEEE Intelligent Systems, 22 (3), 2007, с. 2–3. doi:10.1109/MIS.2007.62 (на англ.)
  • Howe, J. Artificial Intelligence at Edinburgh University: a Perspective. — 1994-11.
  • Kaplan, Andreas; Haenlein, Michael. Siri, Siri in my Hand, who's the Fairest in the Land? On the Interpretations, Illustrations and Implications of Artificial Intelligence. // Business Horizons, 62(1), 2018.
  • Kurzweil, Ray. The Singularity is Near. — Viking Press, 2005. (на англ.)
  • Lighthill, Professor Sir James. Artificial Intelligence: a paper symposium. — Science Research Council, 1973. (на итал.)
  • Minsky, Marvin; Papert, Seymour. Perceptrons: An Introduction to Computational Geometry. — The MIT Press, 1969. (на англ.)
  • McCorduck, Pamela. Machines Who Think (2-е изд.). Natick, MA: A. K. Peters, Ltd., 2004. ISBN 1-56881-205-1. (на англ.)
  • United States National Research Council. Funding a Revolution: Government Support for Computing Research. — National Academies Press, 1999. (на англ.)
  • Newquist, HP. The Brain Makers: Genius, Ego, and Greed In The Search For Machines That Think. — Macmillan/SAMS, 1994. ISBN 978-0-9885937-1-8. (на англ.)
  • Russell, Stuart J.; Norvig, Peter. Artificial Intelligence: A Modern Approach (2nd ed.). Upper Saddle River, New Jersey: Prentice Hall, 2003. ISBN 0-13-790395-2. (на англ.)