Системный ответ
Ответ робота не устроит, но есть ответ получше. Вы застряли в Китайской комнате (или в центре управления роботом Китайской комнаты) и не понимаете, что делает система в целом. В этом нет ничего удивительного. Вы - не Китайская комната. Вы - исполнитель программы в системе. Вы выполняете хакерскую работу. Вы слепо следуете инструкциям. Вы похожи на процессор обычного компьютера. Компьютер - это гораздо больше, чем процессор. Система в целом включает в себя жесткий диск, оперативную память, кэш, видеокарту, операционную систему, программное обеспечение, всевозможные периферийные устройства и т.д. Если вы похожи на процессор китайской комнаты, то это не китайская комната. Вы даже не самая важная часть китайской комнаты. Мы можем вынуть вас и подключить кого-то другого, и система почти ничего не заметит, при условии, что ваша замена сможет выполнять инструкции так же хорошо, как и вы. Поскольку вы являетесь лишь небольшой и заменяемой частью "Китайской комнаты", неудивительно, что вы не понимаете, что делает система в целом. Если кто-то и понимает китайский язык в нашем мысленном эксперименте, то это вся система в целом. А вы - не вся система. Это и есть ответ системы на аргумент Серла.
Серл не впечатлен. Каким образом добавление мебели (картотеки, корзины с тильдами и т.д.) может превратить то, что не понимает (т.е. вас), в то, что понимает (т.е. в систему "Китайская комната")? Заманчиво ответить: "Просто так". Сам по себе картотечный шкаф не может понять: он просто инертная информация. Вы не можете понять: вы просто слепо следуете инструкциям. Но если сложить эти две вещи вместе, то получится нечто большее, чем просто сумма частей. Мы получаем активную и способную обрабатывать информацию систему, и Серл не сказал нам ничего, что доказывало бы, что такая система не может понимать мандаринский язык.
Серл повторяет попытку. Представьте себе, что вы находитесь в китайской комнате так долго, что очень хорошо знаете инструкции в картотеке. Представьте, что у вас потрясающая память и в конце концов вы запомнили все инструкции. Теперь, когда через входной слот поступает "тильда-квагга", Вам не нужно искать инструкцию в картотеке, чтобы понять, что с ней делать. Достаточно обратиться к своей памяти. В этом новом мысленном эксперименте, говорит Серл, вы действительно являетесь системой "Китайская комната", а не только ее тупой частью - процессором. И все равно вы не поймете, о чем говорит система "Китайская комната". Для вас это все равно будут какие-то загогулины. Это показывает - не так ли? - что система "Китайской комнаты" не может понять, о чем она говорит. Теперь вы сами являетесь этой системой - вы интериоризировали всю систему - и все равно не понимаете. Так как же компьютер может понять?
Двухсистемный ответ
Только что мы рассмотрели ответ на аргумент Сёрла (системный ответ) и ответ Сёрла на него. Настало время для последнего (на данный момент) ответа - ответа на две системы. Сёрл просит вас представить, что вы запомнили весь список инструкций китайской комнаты. Это невероятный подвиг - но в философских мысленных экспериментах допускаются невероятные вещи. Назовем человека с невероятной памятью "Пузырьком". На первый взгляд, Bubblehead - это просто вы с небольшим запасом памяти. Но внешность бывает обманчива. Может показаться, что запоминание программы "Китайская комната" не так уж сильно отличается от запоминания других вещей, например, расписания железных дорог в Северной Америке, но на самом деле это совсем другое. Отличие заключается в том, что Bubblehead использует память о программе Chinese Room совершенно особым образом. Когда вы используете свою память о железнодорожном расписании, чтобы успеть на поезд, вы используете связи между расписанием и остальными вашими знаниями. Вы знаете, как определить время и сколько осталось до 13:00. Вы знаете, что если вы придете в 14:00 к поезду, который должен был отправиться в 13:00, то, скорее всего, опоздаете. И так далее. Когда Bubblehead запоминает инструкции Chinese Room, такой интеграции не происходит. Компонент "Китайская комната" в Bubblehead не полностью интегрирован в остальную когнитивную систему Bubblehead. Более того, он вообще почти не интегрирован.
Похоже, что Bubblehead состоит из двух когнитивных систем. Одна из них - обычная система, позволяющая вовремя успевать на поезда. Другая - система "Китайская комната": система, позволяющая Bubblehead общаться с людьми, говорящими на мандаринском языке. Конечно, вам трудно идентифицировать компонент Chinese Room в Bubblehead. Она остается для вас загадкой, поскольку не интегрирована должным образом с остальными компонентами вашего сознания. Вы не понимаете, что он делает. Но это означает лишь то, что вы не являетесь Bubblehead. Пузырьковая голова состоит из двух систем, а вы - лишь одна из них. Эти две системы связаны между собой, но довольно странным образом. Ваша система выполняет функции исполнителя программ для системы Chinese Room. Без вашего вмешательства в выполнение инструкций система Chinese Room будет просто сидеть в памяти Bubblehead, ничего не достигая.