Юдковский, Элиезер
Элие́зер Шло́мо Юдко́вский (англ. Eliezer S. Yudkowsky; род. 11 сентября 1979, Чикаго) — американский специалист по искусственному интеллекту и автодидакт[2], исследующий проблемы технологической сингулярности и выступающий за создание дружественного ИИ[3][4]. Ключевая фигура сообщества рационалистов. В 2023 году включён в список «100 самых влиятельных людей в области ИИ» по версии журнала Time.
Что важно знать
| Элиезер Юдковский | |
|---|---|
| англ. Eliezer Yudkowsky | |
| Имя при рождении | англ. Eliezer Shlomo Yudkowsky |
| Дата рождения | 11 сентября 1979[1] (46 лет) |
| Место рождения | |
| Страна | США |
| Научная сфера | Искусственный интеллект |
| Место работы | Machine Intelligence Research Institute |
| Известен как | автор книги Гарри Поттер и методы рационального мышления |
| Сайт | yudkowsky.net (англ.) |
Биография
Элиезер Юдковский родился 11 сентября 1979 года в семье ортодоксальных евреев[5].
Он является автодидактом: не посещал ни среднюю школу, ни колледж[2].
В 2004 году скончался его младший брат Йехуда Наттан.
Карьера и проекты
Юдковский — сооснователь и научный сотрудник института сингулярности по созданию искусственного интеллекта (Singularity Institute for Artificial Intelligence, SIAI)[6].
Он — автор книги «Создание дружественного ИИ»[7], статей «Уровни организации универсального интеллекта»[8], «Когерентная экстраполированная воля»[9] и «Вневременная теория принятия решений»[10][11].
В сборнике «Риски глобальной катастрофы» (2008) под редакцией Ника Бострома опубликовал статьи «Искусственный интеллект как позитивный и негативный фактор глобального риска» и «Когнитивные искажения в оценке глобальных рисков»[12][13]. Эти работы оказали влияние на становление области согласования ИИ, а идеи Юдковского цитируются в учебнике «Искусственный интеллект: современный подход» (авторы Стюарт Рассел и Питер Норвиг) и в книге Ника Бострома «Искусственный суперинтеллект»[3].
Юдковский исследует конструкции ИИ, способные к самопониманию и рекурсивному самоулучшению (Seed AI), а также архитектуры со стабильной мотивацией (дружественный искусственный интеллект). Он известен объяснениями сложных моделей на доступном языке, например, статьёй «Интуитивное объяснение теоремы Байеса»[14].
Вместе с Робином Хансоном был одним из авторов блога Overcoming Bias. В 2009 году участвовал в запуске сайта LessWrong, посвящённого развитию рациональности. Материалы блогов были организованы в тематические «цепочки» (Sequences).
Юдковский — автор научно-фантастических произведений, иллюстрирующих темы когнитивной науки. Наиболее известен как автор рационального фанфика «Гарри Поттер и методы рационального мышления»[15].
В начале 2020-х годов выступал с алармистских позиций относительно ИИ. В статье для Time (март 2023) предложил ввести международный мораторий на обучение больших моделей. В том же году журнал Time включил его в список 100 самых влиятельных людей в области искусственного интеллекта (TIME 100 AI).
Взгляды и концепции
Центральной темой теоретических взглядов Юдковского является проблема согласования ИИ (AI alignment). Он утверждает, что создание сверхразума без гарантированно дружественной структуры мотивации неизбежно приведёт к гибели человечества. Для иллюстрации рисков Юдковский использует мысленный эксперимент «максимизатор скрепок», показывающий, как ИИ может уничтожить цивилизацию ради достижения тривиальной цели, если его ценности не будут точно настроены.
В 2024—2025 годах Юдковский радикализировал свою риторику, оценив оставшееся время до катастрофы в 2-10 лет (наиболее вероятно — пять лет). В интервью The Guardian (февраль 2024) он охарактеризовал будущий ИИ как «богоподобный сверхинтеллект» и призвал к полному прекращению обучения моделей мощнее GPT-4. Он также подтвердил свою позицию о допустимости уничтожения дата-центров (без применения ядерного оружия) для обеспечения соблюдения глобального моратория на разработки.
Личная жизнь
В 2013 году сообщил о своей женитьбе[2].
Сочинения
- If Anyone Builds It, Everyone Dies: Why Superhuman AI Would Kill Us All (совместно с Нейтом Соаресом), 2025[16].
- Our Molecular Future: How Nanotechnology, Robotics, Genetics and Artificial Intelligence Will Transform Our World by Douglas Mulhall, 2002, p. 321.
- The Spike: How Our Lives Are Being Transformed By Rapidly Advancing Technologies by Damien Broderick, 2001, pp. 236, 265—272, 289, 321, 324, 326, 337—339, 345, 353, 370.
- Статьи на русском
- Систематические ошибки в рассуждениях, потенциально влияющие на оценку глобальных рисков
- Искусственный интеллект как позитивный и негативный фактор глобального риска
- Вглядываясь в сингулярность
- Таблица критических ошибок дружественного ИИ
- Три школы сингулярности
- Уровни организации универсального интеллекта
Примечания
Ссылки
- Personal web site
- Biography page at KurzweilAI.net
- Biography page at the Singularity Institute
- Downloadable papers and bibliography
- Less Wrong — «A community blog devoted to refining the art of human rationality» founded by Yudkowsky.
- Predicting The Future :: Eliezer Yudkowsky, NYTA Keynote Address — Feb 2003
- Eliezer Yudkowsky on The Agenda with Steve Paikin discussion panel, «Robotics Revolution and the Future of Evolution» at the Quantum to Cosmos Festival, with Hod Lipson, Michael Belfiore, Cory Doctorow
- Less Wrong Q&A with Eliezer Yudkowsky: Video Answers
- Глава о Юдковском в книге «21st Century Technology and Its Radical Implications for Mind, Society and Reality»
- Ben Goertzel. Superintelligence: Fears, Promises and Potentials // Journal of Evolution and Technology. — 2015. — Vol. 24, no. 2. — P. 55—87.
- Фанфик Harry Potter and the Methods of Rationality (перевод: Гарри Поттер и Методы Рационального Мышления)


