Технологическая сингулярность

Технологическая сингулярность (англ. technological singularity) — событие, при котором технологический прогресс начинает ускоряться вне человеческого контроля, вызывая непредсказуемые изменения в человеческой цивилизации[1]. Наиболее известная версия гипотезы сингулярности — модель взрыва интеллекта (англ. intelligence explosion), предложенная И. Дж. Гудом в 1965 году: совремяемый интеллектуальный агент может войти в цикл рекурсивного самосовершенствования, где каждое новое поколение будет гораздо умнее предыдущего, что приведёт к быстрым изменениям и появлению суперинтеллекта, неизмеримо превосходящего человеческий интеллект[2].

Ряд учёных (включая Стивена Хокинга) высказывали опасения, что искусственный суперинтеллект способен привести к вымиранию человечества[3]. Последствия технологической сингулярности, возможная польза или вред для человечества активно обсуждаются.

Ряд ведущих технологов и учёных оспаривают правдоподобность сценария сингулярности и связанного с ним «взрыва искусственного интеллекта» — среди них Пол Аллен[4], Джефф Хокинс, Джон Холланд, Джарон Ланье, Стивен Пинкер, Теодор Модис, Гордон Мур, и Роджер Пенроуз[5]. Согласно одной из точек зрения, рост искусственного интеллекта столкнётся с убывающей отдачей, а не с нарастающим ускорением. Стюарт Расселл и Питер Норвиг указывают, что усовершенствования в технологиях чаще всего развиваются по S-образной кривой, а не стремятся к гиперболической сингулярности[6].

История

Алан Тьюринг (часто называемый «отцом» современной информатики) заложил основы обсуждений о технологической сингулярности своей ключевой работой 1950 года «Вычислительная техника и разум», где доказывал, что машина теоретически может проявлять интеллектуальное поведение, эквивалентное или неотличимое от человеческого[7].

Впервые термин «сингулярность» в контексте технологического прогресса употребил венгерско-американский математик Джон фон Нейман (1903–1957)[8].[9] Станислав Улам в 1958 году приводил высказывание фон Неймана: ускорение технического прогресса производит впечатление приближения к некой «сингулярности» — точке, после которой обычный ход человеческих дел не может быть продолжен. Эту точку зрения позднее развивали различные авторы[10]

В 1965 году И. Дж. Гуд предположил, что сверхчеловеческий интеллект приведёт к «взрыву интеллекта»:

Пусть ультраинтеллектуальная машина определяется как таковая, что способна значительно превзойти любые интеллектуальные работы человека, как бы ни был тот умен. Поскольку создание машин — одна из этих интеллектуальных работ, ультраинтеллектуальная машина сможет создавать ещё более совершенные; тогда неизбежно последует “взрыв интеллекта”, и человек будет далеко оставлен позади. Таким образом, первая ультраинтеллектуальная машина — последнее изобретение, в котором человечеству когда-либо будет нужда, если только машина достаточно покорна, чтобы сообщить нам, как сохранить управление.

Speculations Concerning the First Ultraintelligent Machine (1965)

Понятие «сингулярности» и термин популяризировал Вернор Виндж: сначала в 1983 году — утверждая, что создание человеком интеллектов, превосходящих собственный, приведёт к скачкообразному переходу, сопоставимому c «узлом пространства-времени в центре чёрной дыры»; затем в 1993 году, когда вышло эссе «The Coming Technological Singularity»,[2]. где он высказал мнение, что для людей «пост-сингулярное» будущее принципиально непредсказуемо, а технологическая сингулярность завершит человеческую эру[2].

Вклад в популяризацию понятия внёс и Рэй Курцвейл своей книгой 2005 года The Singularity Is Near, в которой сингулярность предсказывалась к 2045 году.

Взрыв интеллекта

Хотя технический прогресс ускоряется по многим направлениям, его ограничивает интеллект человека, который, согласно Полу Эрлиху, за тысячелетия принципиально не изменился[11]. Однако с ростом мощности компьютеров и других технологий возможно создание машин, значительно превосходящих человека по интеллекту[12].

Если будет создан сверхчеловеческий интеллект — как путём усиления интеллекта человека, так и искусственно — он сможет в совершенстве решать задачи, недоступные человеку. Такой ИИ называют seed AI («семенной искусственный интеллект»)[13], так как он способен сам улучшать своё программное и аппаратное обеспечение, проектируя всё более совершенные версии, ускоряя процесс до принципиальных физических или вычислительных лимитов. По гипотезе, многоитерационный процесс приведёт к суперинтеллекту, превзойдя по возможностям человеческий мозг.

Появление суперинтеллекта

Суперинтеллект (гиперинтеллект или сверхчеловеческий интеллект) — гипотетический интеллектуальный агент, обладающий интеллектом, недостижимым для даже самых одарённых людей[14]. Хорошо известные определения дают И. Дж. Гуд, В. Виндж и Р. Курцвейл — отмечая, что жизнь в «постсингулярном» мире человек предугадать не в состоянии.

Связанное понятие speed superintelligence («ускоренный суперинтеллект») описывает ИИ, аналогичный по возможностям человеческому уму, но действующий значительно быстрее.[15]. Теоретически ускорение обработки информации в миллионы раз приведёт к тому, что субъективный год для такой системы пройдёт за 30 секунд реального времени. Различие в скоростях обработки способно ускорить наступление сингулярности[16].

Учёные и футурологи расходятся во мнениях о сроках и самой возможности появления искусственного сверхинтеллекта. Некоторые считаю́т, что совершенствование искусственного интеллекта приведёт к системам, обходимым человеческие ограничения; другие полагают, что сами люди радикально ускорят развитие собственного интеллекта — например, путём модификации биологии[17]. Прогнозируются сценарии интеграции мозга с компьютером и загрузка сознания, позволяющие увеличить интеллектуальные возможности. К примеру, в книге Робина Хэнсона «The Age of Em» (2016) описаны загрузки человеческого сознания, опережающие или совпадающие по времени с появлением ИИ сопоставимой сложности[18].

Вариации

Несвязанные с ИИ сценарии сингулярности

Некоторые авторы используют термин «сингулярность» и для любых радикальных технологических изменений (например, молекулярная нанотехнология), хотя, по мнению Винджa и ряда других исследователей, только появление суперинтеллекта даёт основание говорить о «настоящей» сингулярности[2]

Прогнозы

Прогресс ИИ по разным направлениям по сравнению с человеческим уровнем, включая компьютерное зрение, распознавание речи, обработку естественного языка, оценку языковых моделей, математические задачи.[19]. Множество моделей к 2019 году превышают человеческий уровень (чёрная линия).

Существует широкий диапазон оценочных дат наступления сингулярности:

- И. Дж. Гуд в 1965 году считал наиболее вероятным создание ультраинтеллектуальной машины уже в XX веке. - Ханс Моравек в 1988 году предполагал, что к 2010 году вычислительные средства для ИИ человеческого уровня будут доступны в суперкомпьютерах. - Вернор Виндж в 1993 году прогнозировал превосходство искусственного интеллекта над человеческим между 2005 и 2030 годами[2] - Рэй Курцвейл в 2005 году предсказывал появление ИИ человеческого уровня к 2029 году, а сингулярности — к 2045 году;[20].[21] в 2024 году эти прогнозы были подтверждены[22]. - Пересмотренный прогноз Моравека 1998 года предполагал достижение ИИ человеческого уровня к 2040-му, а сверхчеловеческого — к ~2050 году[23].

Опросы исследователей ИИ 2012–2013 годов (Бостром, Мюллер) дали медианное значение 2040–2050 годы для появления ИИ человеческого уровня[24].

Обзор опросов последних 15 лет (2025 год) показал, что большинство учёных и экспертов в индустрии ожидают появления искусственного общего интеллекта (AGI) до 2100 года[25].

Правдоподобность, критика и альтернативные мнения

Важнейшими факторами, ограничивающими или ускоряющими сингулярность, считаются вычислительная мощность («железо») и алгоритмы. Противники сингулярности ссылаются на «закон сложности» (complexity brake), убывающую отдачу от инвестиций в инновации, а также уравновешивание ускорения новыми лимитами в аппаратной и программной частях[4]. Исследования опрошенных учёных демонстрируют широкий разброс оценок вероятности взрыва интеллекта, а многие склоняются к скепсису[26].

Среди альтернативных сценариев развития выделяют «жёсткий» и «мягкий» захват (takeoff), когда ИИ может стремительно или постепенно по меркам человека обрести доминирование[27].

Часть критиков сравнивают ожидания сингулярности с эсхатологическими религиозными доктринами — идеей «конца света», трансцендентности, техноутопизмом.

См. также

Примечания

Литература

  • Курцвейл Р. The Singularity Is Near. Penguin Group, 2005. ISBN 9780715635612.
  • Гуд И. Дж. «Speculations Concerning the First Ultraintelligent Machine». In: Advances in Computers, v.6, 1965.
  • Виндж В. «The Coming Technological Singularity: How to Survive in the Post-Human Era», 1993.
  • Моравек Х. Mind Children: The Future of Robot and Human Intelligence. Harvard University Press, 1988.
  • Chalmers D. J. The Singularity: A Philosophical Analysis. Journal of Consciousness Studies. 2010. Vol. 17(9–10), pp. 7–65.
Править