Материал из РУВИКИ — свободной энциклопедии

Юдковский, Элиезер

Элиезер Юдковский
англ. Eliezer Yudkowsky
Элиезер Юдковский на Стэнфордском саммите сингулярности в 2006 году.
Элиезер Юдковский на Стэнфордском саммите сингулярности в 2006 году.
Имя при рождении англ. Eliezer Shlomo Yudkowsky
Дата рождения 11 сентября 1979(1979-09-11) (45 лет)
Место рождения Чикаго
Страна США
Научная сфера Искусственный интеллект
Место работы Machine Intelligence Research Institute
Известен как автор книги Гарри Поттер и методы рационального мышления
Сайт yudkowsky.net (англ.)
Логотип РУВИКИ.Медиа Медиафайлы на РУВИКИ.Медиа

Элие́зер Шло́мо Юдко́вский (англ. Eliezer S. Yudkowsky, 11 сентября 1979) — американский специалист[источник не указан 729 дней] по искусственному интеллекту, исследующий проблемы технологической сингулярности и выступающий за создание дружественного ИИ[1][2]. Ключевая фигура сообщества рационалистов.

Элиезер Юдковский родился 11 сентября 1979 года в семье ортодоксальных евреев[3].

Научные интересы

[править | править код]

Юдковский — сооснователь и научный сотрудник Института Сингулярности по созданию Искусственного Интеллекта Singularity Institute for Artificial Intelligence (SIAI)[4]. Он — автор книги «Создание дружественного ИИ»[5], статей «Уровни организации универсального интеллекта»[6], «Когерентная экстраполированная воля»[7] и «Вневременная теория принятия решений»[8][9]. Его последними научными публикациями являются две статьи в сборнике «Риски глобальной катастрофы» (2008) под редакцией Ника Бострома, а именно «Искусственный интеллект как позитивный и негативный фактор глобального риска» и «Когнитивные искажения в оценке глобальных рисков»[10][11][12]. Юдковский не обучался в вузах и является автодидактом без формального образования в области ИИ[13].

Юдковский исследует те конструкции ИИ, которые способны к самопониманию, самомодификации и рекурсивному самоулучшению (Seed AI), а также такие архитектуры ИИ, которые будут обладать стабильной и позитивной структурой мотивации (Дружественный искусственный интеллект). Помимо исследовательской работы, Юдковский известен своими объяснениями сложных моделей на неакадемическом языке, доступном широкому кругу читателей, например, см. его статью «Интуитивное объяснение теоремы Байеса»[14][15].

Юдковский был вместе с Робином Хансоном одним из главных авторов блога Overcoming Bias (преодоление предубеждений). В начале 2009 года он участвовал в организации блога LessWrong, нацеленного на «развитие рациональности человека и преодоление когнитивных искажений». После этого Overcoming Bias стал личным блогом Хансона. Материал, представленный на этих блогах, был организован в виде цепочек постов, которые смогли привлечь тысячи читателей — см. например, цепочку «теория развлечений»[16].

Юдковский — автор нескольких научно-фантастических, рациональных рассказов, в которых он иллюстрирует некоторые темы, связанные с когнитивной наукой и рациональностью. В неакадемических кругах больше известен как автор фанфика «Гарри Поттер и методы рационального мышления» под эгидой LessWrong[17].

В начале 2020-х гг. выступает с крайне алармистских позиций относительно дальнейшего развития искусственного интеллекта. В опубликованной в марте 2023 года статье для Time предложил объявить мораторий на обучение новых больших ИИ-моделей типа GPT (с возможным исключением для использования в сфере биологии и биотехнологий), распространящийся на все государства и организации, и силовыми методами пресекать нарушения этого моратория, даже если это будет означать ядерную войну.[18]

  • Our Molecular Future: How Nanotechnology, Robotics, Genetics and Artificial Intelligence Will Transform Our World by Douglas Mulhall, 2002, p. 321.
  • The Spike: How Our Lives Are Being Transformed By Rapidly Advancing Technologies by Damien Broderick, 2001, pp. 236, 265—272, 289, 321, 324, 326, 337—339, 345, 353, 370.
Статьи на русском

Примечания

[править | править код]
  1. Russell, Stuart. Artificial Intelligence: A Modern Approach / Stuart Russell, Peter Norvig. — Prentice Hall, 2009. — ISBN 978-0-13-604259-4.
  2. Leighton, Jonathan. The Battle for Compassion: Ethics in an Apathetic Universe. — Algora, 2011. — ISBN 978-0-87586-870-7.
  3. Avoiding Your Belief's Real Weak Points. LessWrong. Дата обращения: 31 мая 2021.
  4. Ray Kurzweil. The Singularity Is Near (неопр.). — New York, US: Viking Penguin, 2005. — С. 599. — ISBN 0-670-03384-7.
  5. Creating Friendly AI, 2001
  6. Levels of Organization in General Intelligence, 2002
  7. Coherent Extrapolated Volition, 2004
  8. Timeless Decision Theory, 2010
  9. Eliezer Yudkowsky Profile. Accelerating Future. Дата обращения: 15 ноября 2010. Архивировано из оригинала 4 декабря 2010 года.
  10. Artificial Intelligence as a Positive and Negative Factor in Global Risk. Singularity Institute for Artificial Intelligence. Дата обращения: 28 июля 2009. Архивировано из оригинала 2 марта 2013 года.
  11. Cognitive Biases Potentially Affecting Judgement of Global Risks. Singularity Institute for Artificial Intelligence. Дата обращения: 29 октября 2018. Архивировано из оригинала 7 мая 2015 года.
  12. Global Catastrophic Risks (англ.) / Bostrom, Nick. — Oxford, UK: Oxford University Press, 2008. — P. 91—119, 308—345. — ISBN 978-0-19-857050-9.
  13. GDay World #238: Eliezer Yudkowsky. The Podcast Network. Дата обращения: 26 июля 2009. Архивировано 17 июля 2007 года.
  14. «An Intuitive Explanation of Bayes' Theorem»
  15. перевод
  16. Sequences — Lesswrongwiki
  17. Yudkowsky — Fiction
  18. Pausing AI Developments Isn't Enough. We Need to Shut it All Down. Time. Дата обращения: 15 апреля 2023.