Китайская комната

Китайская комната (англ. Chinese room) — мысленный эксперимент, призванный показать, что компьютер, исполняющий программу, не может обладать сознанием, пониманием или разумом вне зависимости от того, насколько разумно или по-человечески он себя ведёт. Этот аргумент был представлен философом Джоном Серлем в 1980 году в статье «Разумы, мозги и программы» (Minds, Brains, and Programs), опубликованной в журнале Behavioral and Brain Sciences[1]. Похожие доводы ранее высказывали Готфрид Вильгельм Лейбниц (1714), Нэд Блок (1978) и другие мыслители, однако именно версия Серля стала предметом широкой и продолжающейся дискуссии[2]. Центральной частью рассуждения является мысленный эксперимент «китайская комната»[3].

Аргумент направлен против философских концепций функционализма и компьютационализма[4], утверждающих, что разум можно рассматривать как систему обработки информации над формальными символами, а достаточно точная имитация вычисляемого состояния равнозначна наличию самого этого состояния. Аргумент Серля предназначен для опровержения того, что он называет гипотезой сильного искусственного интеллекта: «надлежащим образом запрограммированный компьютер с правильными входными и выходными данными будет обладать разумом в том же смысле, что и люди».

Хотя первоначально аргумент подавался как реакция на заявления исследователей в области искусственного интеллекта (ИИ), он не отрицает целей прикладных работ по ИИ, поскольку не устанавливает ограничений для уровня интеллектуального поведения машин[5]. Аргумент затрагивает исключительно цифровые компьютеры, работающие под управлением программы, и не распространяется на машины в целом[6]. Несмотря на широкое обсуждение, аргумент подвергается существенной критике и остаётся предметом споров среди аналитиков сознания и учёных в области искусственного интеллекта[7].

Мысленный эксперимент «китайская комната»

Предположим, что исследователи в области искусственного интеллекта успешно создали программу для компьютера, которая заставляет его вести себя так, будто он понимает китайский язык. Эта машина получает на вход китайские иероглифы, пошагово выполняет инструкции программы и формирует на выходе другие китайские иероглифы. Машина делает это настолько искусно, что никто не может распознать, говорит ли с ней человек или машина, скрытая за ширмой[6].

Возникает главный вопрос: действительно ли машина понимает ведённый с ней диалог или лишь симулирует способность к пониманию? Обладает ли машина разумом в том же смысле, что и человек, или только создаёт видимость наличия разума[6].

Допустим далее, что Серль находится внутри комнаты, у него есть англоязычная версия программы, а также достаточное количество карандашей, бумаги, ластиков и картотеки. Через щель под дверью ему подают китайские иероглифы, а он, следуя инструкциям, в итоге передаёт наружу другую комбинацию иероглифов. Если компьютер таким методом смог бы пройти тест Тьюринга, то и Серль, вручную воспроизводя шаги программы, тоже сможет[6].

Серль не видит существенной разницы между ролью компьютера и своим собственным участием в эксперименте: и тот и другой просто механически следуют программе, формируя поведение, создающее видимость понимания. Однако, сам Серль при этом не понимает смысла общения. Следовательно, по его мнению, и компьютер, просто исполняющий правила, не будет понимать китайский[6].

Обобщая, Серль утверждает: если отсутствует собственно «понимание» (интенциональность), то мы не можем назвать действия машины мышлением, а значит, в нормальном смысле слова у неё нет «разума». Отсюда делается вывод, что гипотеза сильного искусственного интеллекта ошибочна: работающая под управлением такой программы машина не имеет разума в том же смысле, что и человек[6].

История

Похожую аргументацию против объяснения разума только механическими средствами приводил ещё Готфрид Лейбниц в «Монадологии» (1714), анализируя возможность «механического» устройства, способного к восприятию[8]. Он с трудом представлял себе, что «разум», способный к «восприятию», можно построить исключительно на механистических принципах. Отличие подхода Серля в том, что Лейбниц оспаривал именно «механическую» (substance) модель, а Серль — «информационно-вычислительную» (computationalism): он принимает механизм, но отрицает компьютационализм.

В 1958 году аналогичный аргумент появляется у Питера Уинча, а в 1961 году советский кибернетик Анатолий Днепров изложил практически идентичную мысль в рассказе «Игра», где стадион людей реализует перевод текста с португальского так, что никто из них языка не знает[9]. Подобные упражнения, вплоть до мысленного эксперимента о «китайском мозге» (Нэд Блок, 1978), задавали вопрос: достаточно ли симуляции функций для обладания сознанием?

Статья Серля «Разумы, мозги и программы» (1980) приобрела статус классического труда в когнитивистике и искусственном интеллекте, породив множество опровержений и возражений[10]. Тем не менее, подавляющее большинство исследователей по-прежнему считает аргумент ошибочным[2].

См. также

Примечания

Литература