Слабый искусственный интеллект

Слабый искусственный интеллект (англ. weak artificial intelligence, также узкоспециализированный искусственный интеллект, узкий искусственный интеллект (англ. narrow AI, англ. artificial narrow intelligence, ANI)[1][2][3]) — это разновидность искусственного интеллекта, реализующая ограниченную часть «разума» и ориентированная на выполнение одной узкой задачи.

Слабый искусственный интеллект противопоставляется сильному искусственному интеллекту, который может пониматься по-разному:

Узкоспециализированный ИИ определяется как система, «ограниченная решением одной, чётко определённой задачи. Большинство современных ИИ-систем относятся к этой категории»[4]. В отличие от этого, общий искусственный интеллект работает в любой предметной области.

Применения и риски

Примеры узкоспециализированного искусственного интеллекта включают AlphaGo[5], беспилотные автомобили, роботизированные системы, применяемые в медицине, и системы диагностики заболеваний. Узкий ИИ может быть опасен при недостаточной надёжности, его поведение может становиться непоследовательным[6]. Такие системы могут испытывать трудности с распознаванием сложных закономерностей и обеспечением стабильной работы в различных условиях. Эта «хрупкость» приводит к потенциально неожиданным сбоям[7].

Неудачи узкого ИИ могут приводить к существенным последствиям: сбоям в работе электросетей, повреждению ядерных объектов, глобальным экономическим кризисам, неверному управлению автономным транспортом[1]. Возможна неправильная сортировка и распределение медикаментов, врачебные ошибки и даже смертельные исходы при неправильной или предвзятой работе медицинских ИИ-систем[8].

Простые программы на основе искусственного интеллекта уже прочно вошли в повседневную жизнь, зачастую оставаясь незаметными: автокоррекция текста, распознавание речи в приложениях для преобразования речи в текст, применение в области анализа данных[9]. Вокруг узкого ИИ возникают и этические споры: известны случаи несправедливых приговоров, дискриминации женщин при найме, смертельных аварий с участием автономных транспортных средств и прочие примеры[10].

Несмотря на «узость» специализации, рекомендательные системы эффективно предсказывают реакцию пользователя по его записям, паттернам и трендам[11]. К примеру, алгоритм рекомендацией «For You» платформы TikTok способен определить интересы пользователя за менее чем час[12]. Некоторые системы ИИ для социальных сетей служат для обнаружения ботов, в том числе задействованных в распространении пропаганды или другом вредоносном поведении[13].

Слабый ИИ против сильного ИИ

Джон Сёрл (англ. John Searle) ставит под сомнение возможность создания сильного ИИ (в его понимании — сознательного ИИ). Он также утверждает, что тест Тьюринга (придуманный Аланом Тьюрингом и изначально называвшийся «игрой в имитацию», служит проверкой для оценки способности машины вести диалог, неотличимый от человеческого), не может быть корректным способом проверки наличия «сильного» ИИ[14].

Некоторые исследователи, такие как Антонио Лието (англ. Antonio Lieto), считают, что современные разработки в областях искусственного интеллекта и когнитивного моделирования полностью согласуются с гипотезой слабого ИИ (которая не тождественна разделению на «общий» и «узкий» ИИ), а распространённое мнение, что когнитивно вдохновлённые модели реализуют гипотезу сильного ИИ — ошибочно. Искусственные модели разума и мозга можно использовать для познания психических феноменов, не утверждая, что они этими феноменами являются[15] (в противоположность утверждению гипотезы сильного ИИ).

Примечания