Слабый искусственный интеллект
Слабый искусственный интеллект (англ. weak artificial intelligence, также узкоспециализированный искусственный интеллект, узкий искусственный интеллект (англ. narrow AI, англ. artificial narrow intelligence, ANI)[1][2][3]) — это разновидность искусственного интеллекта, реализующая ограниченную часть «разума» и ориентированная на выполнение одной узкой задачи.
Слабый искусственный интеллект противопоставляется сильному искусственному интеллекту, который может пониматься по-разному:
- Общий искусственный интеллект (AGI): машина, способная применять интеллект для решения любых задач в различных областях, а не только одной специальной задачи.
- Сверхискусственный интеллект (ASI): машина с уровнем интеллекта, значительно превосходящим среднестатистического человека.
- Искусственное сознание: машина, обладающая сознанием, сознательностью и разумом (Джон Сёрл использует термин «сильный ИИ» именно в этом смысле).
Узкоспециализированный ИИ определяется как система, «ограниченная решением одной, чётко определённой задачи. Большинство современных ИИ-систем относятся к этой категории»[4]. В отличие от этого, общий искусственный интеллект работает в любой предметной области.
Применения и риски
Примеры узкоспециализированного искусственного интеллекта включают AlphaGo[5], беспилотные автомобили, роботизированные системы, применяемые в медицине, и системы диагностики заболеваний. Узкий ИИ может быть опасен при недостаточной надёжности, его поведение может становиться непоследовательным[6]. Такие системы могут испытывать трудности с распознаванием сложных закономерностей и обеспечением стабильной работы в различных условиях. Эта «хрупкость» приводит к потенциально неожиданным сбоям[7].
Неудачи узкого ИИ могут приводить к существенным последствиям: сбоям в работе электросетей, повреждению ядерных объектов, глобальным экономическим кризисам, неверному управлению автономным транспортом[1]. Возможна неправильная сортировка и распределение медикаментов, врачебные ошибки и даже смертельные исходы при неправильной или предвзятой работе медицинских ИИ-систем[8].
Простые программы на основе искусственного интеллекта уже прочно вошли в повседневную жизнь, зачастую оставаясь незаметными: автокоррекция текста, распознавание речи в приложениях для преобразования речи в текст, применение в области анализа данных[9]. Вокруг узкого ИИ возникают и этические споры: известны случаи несправедливых приговоров, дискриминации женщин при найме, смертельных аварий с участием автономных транспортных средств и прочие примеры[10].
Несмотря на «узость» специализации, рекомендательные системы эффективно предсказывают реакцию пользователя по его записям, паттернам и трендам[11]. К примеру, алгоритм рекомендацией «For You» платформы TikTok способен определить интересы пользователя за менее чем час[12]. Некоторые системы ИИ для социальных сетей служат для обнаружения ботов, в том числе задействованных в распространении пропаганды или другом вредоносном поведении[13].
Слабый ИИ против сильного ИИ
Джон Сёрл (англ. John Searle) ставит под сомнение возможность создания сильного ИИ (в его понимании — сознательного ИИ). Он также утверждает, что тест Тьюринга (придуманный Аланом Тьюрингом и изначально называвшийся «игрой в имитацию», служит проверкой для оценки способности машины вести диалог, неотличимый от человеческого), не может быть корректным способом проверки наличия «сильного» ИИ[14].
Некоторые исследователи, такие как Антонио Лието (англ. Antonio Lieto), считают, что современные разработки в областях искусственного интеллекта и когнитивного моделирования полностью согласуются с гипотезой слабого ИИ (которая не тождественна разделению на «общий» и «узкий» ИИ), а распространённое мнение, что когнитивно вдохновлённые модели реализуют гипотезу сильного ИИ — ошибочно. Искусственные модели разума и мозга можно использовать для познания психических феноменов, не утверждая, что они этими феноменами являются[15] (в противоположность утверждению гипотезы сильного ИИ).


