Китайская комната
Китайская комната (англ. Chinese room) — мысленный эксперимент, призванный показать, что компьютер, исполняющий программу, не может обладать сознанием, пониманием или разумом вне зависимости от того, насколько разумно или по-человечески он себя ведёт. Этот аргумент был представлен философом Джоном Серлем в 1980 году в статье «Разумы, мозги и программы» (Minds, Brains, and Programs), опубликованной в журнале Behavioral and Brain Sciences[1]. Похожие доводы ранее высказывали Готфрид Вильгельм Лейбниц (1714), Нэд Блок (1978) и другие мыслители, однако именно версия Серля стала предметом широкой и продолжающейся дискуссии[2]. Центральной частью рассуждения является мысленный эксперимент «китайская комната»[3].
Аргумент направлен против философских концепций функционализма и компьютационализма[4], утверждающих, что разум можно рассматривать как систему обработки информации над формальными символами, а достаточно точная имитация вычисляемого состояния равнозначна наличию самого этого состояния. Аргумент Серля предназначен для опровержения того, что он называет гипотезой сильного искусственного интеллекта: «надлежащим образом запрограммированный компьютер с правильными входными и выходными данными будет обладать разумом в том же смысле, что и люди».
Хотя первоначально аргумент подавался как реакция на заявления исследователей в области искусственного интеллекта (ИИ), он не отрицает целей прикладных работ по ИИ, поскольку не устанавливает ограничений для уровня интеллектуального поведения машин[5]. Аргумент затрагивает исключительно цифровые компьютеры, работающие под управлением программы, и не распространяется на машины в целом[6]. Несмотря на широкое обсуждение, аргумент подвергается существенной критике и остаётся предметом споров среди аналитиков сознания и учёных в области искусственного интеллекта[7].
Мысленный эксперимент «китайская комната»
Предположим, что исследователи в области искусственного интеллекта успешно создали программу для компьютера, которая заставляет его вести себя так, будто он понимает китайский язык. Эта машина получает на вход китайские иероглифы, пошагово выполняет инструкции программы и формирует на выходе другие китайские иероглифы. Машина делает это настолько искусно, что никто не может распознать, говорит ли с ней человек или машина, скрытая за ширмой[6].
Возникает главный вопрос: действительно ли машина понимает ведённый с ней диалог или лишь симулирует способность к пониманию? Обладает ли машина разумом в том же смысле, что и человек, или только создаёт видимость наличия разума[6].
Допустим далее, что Серль находится внутри комнаты, у него есть англоязычная версия программы, а также достаточное количество карандашей, бумаги, ластиков и картотеки. Через щель под дверью ему подают китайские иероглифы, а он, следуя инструкциям, в итоге передаёт наружу другую комбинацию иероглифов. Если компьютер таким методом смог бы пройти тест Тьюринга, то и Серль, вручную воспроизводя шаги программы, тоже сможет[6].
Серль не видит существенной разницы между ролью компьютера и своим собственным участием в эксперименте: и тот и другой просто механически следуют программе, формируя поведение, создающее видимость понимания. Однако, сам Серль при этом не понимает смысла общения. Следовательно, по его мнению, и компьютер, просто исполняющий правила, не будет понимать китайский[6].
Обобщая, Серль утверждает: если отсутствует собственно «понимание» (интенциональность), то мы не можем назвать действия машины мышлением, а значит, в нормальном смысле слова у неё нет «разума». Отсюда делается вывод, что гипотеза сильного искусственного интеллекта ошибочна: работающая под управлением такой программы машина не имеет разума в том же смысле, что и человек[6].
История
Похожую аргументацию против объяснения разума только механическими средствами приводил ещё Готфрид Лейбниц в «Монадологии» (1714), анализируя возможность «механического» устройства, способного к восприятию[8]. Он с трудом представлял себе, что «разум», способный к «восприятию», можно построить исключительно на механистических принципах. Отличие подхода Серля в том, что Лейбниц оспаривал именно «механическую» (substance) модель, а Серль — «информационно-вычислительную» (computationalism): он принимает механизм, но отрицает компьютационализм.
В 1958 году аналогичный аргумент появляется у Питера Уинча, а в 1961 году советский кибернетик Анатолий Днепров изложил практически идентичную мысль в рассказе «Игра», где стадион людей реализует перевод текста с португальского так, что никто из них языка не знает[9]. Подобные упражнения, вплоть до мысленного эксперимента о «китайском мозге» (Нэд Блок, 1978), задавали вопрос: достаточно ли симуляции функций для обладания сознанием?
Статья Серля «Разумы, мозги и программы» (1980) приобрела статус классического труда в когнитивистике и искусственном интеллекте, породив множество опровержений и возражений[10]. Тем не менее, подавляющее большинство исследователей по-прежнему считает аргумент ошибочным[2].
См. также
Примечания
Литература
- Searle, John (1980). “Minds, Brains, and Programs”. Behavioral and Brain Sciences [англ.]. 3 (3): 417—457. DOI:10.1017/S0140525X00005756. Дата обращения 2024-11-01.
|access-date=требует|url=(справка) - Harnad, Stevan (2001). M. Preston, J., ed. “What's Wrong and Right About Searle's Chinese Room Argument”. Views into the Chinese Room: New Essays on Searle and Artificial Intelligence [англ.]. Архивировано из оригинала 2011-08-06. Дата обращения 2024-11-01.
- The Chinese Room Argument (англ.). Stanford Encyclopedia of Philosophy (2024). Дата обращения: 2 ноября 2024.