На первый взгляд, этот аргумент ставит под сомнение пригодность нашего теста. Согласно крайней форме этого аргумента, единственный способ убедиться в том, что машина думает, — это стать машиной и почувствовать собственное мышление. Затем эти чувства можно было бы описать — но, разумеется, никто не обязан принимать это описание всерьез. Точно так же, чтобы убедиться в том, что человек мыслит, необходимо стать именно этим человеком. В действительности, это солипсистская точка зрения. Возможно, это наиболее логичная точка зрения, но она делает обмен идеями затруднительным. А расположен считать: “А думает, а Б — нет”, в то время, как Б считает: “Б думает, а А — нет”. Чтобы избежать вечных споров по этому поводу, принято считать, что каждый человек способен думать.
Я убежден в том, что профессор Джефферсон не придерживается крайней, солипсистской точки зрения. Вероятно, он согласился бы воспользоваться игрой-имитацией, как тестом на мышление. Вариант этой игры, в котором отсутствует игрок Б, часто используется на практике под именем viva voce, с тем чтобы выяснить, действительно ли кто-либо что-то понимает, или же это что-то затвержено им механически. Давайте взглянем на фрагмент игры viva voce:
ЭКЗАМЕНАТОР: В первой строке вашего сонета “Сравнить ли с летним днем тебя” не лучше ли звучит “с весенним днем”?
ИГРОК: Это не подходит по размеру.
ЭКЗАМЕНАТОР: А как насчет того, чтобы поставить “с зимним днем”? Здесь с размером все в порядке.
ИГРОК: Верно — но никто не захочет, чтобы его сравнивали с зимним днем.
ЭКЗАМЕНАТОР: Можно ли сказать, что мистер Пиквик напоминает вам о Рождестве?
ИГРОК: В какой-то степени.
ЭКЗАМЕНАТОР: И тем не менее, Рождество — зимний день, а я не думаю, чтобы мистер Пиквик стал бы возражать против подобного сравнения.
ИГРОК: Не думаю, что вы говорите серьезно. Под зимним днем обычно понимают типичный зимний день, а не особенный день вроде Рождества.
И так далее. Что сказал бы профессор Джефферсон, если бы слагающая сонеты машина могла бы отвечать подобным образом в viva voce? Посчитал бы он, что машина “искусственным образом сигнализирует” свои ответы? Не знаю; но если бы ответы были такими удовлетворительными и аргументированными, как в приведенном отрывке, не думаю, что он назвал бы их “несложными ухищрениями.” Полагаю, что под этим он имел в виду нечто вроде заложенной в машину звукозаписи с сонетом, которая бы включалась и выключалась в нужные моменты.
Короче, я считаю, что большую часть сторонников аргумента от сознания можно убедить от него отказаться, не переходя при этом на позиции солипсизма. Тогда они, возможно, согласятся принять наш тест.
Я не хочу сказать, что в сознании нет ничего таинственного. Например, при попытках его локализовать каждый раз возникает нечто вроде парадокса. Но я не думаю, что все эти тайны должны быть непременно раскрыты прежде, чем мы сможем ответить на интересующий нас в этой статье вопрос.
5. Аргумент от различных ограниченных способностей. Вот как он выглядит: “Хорошо, я согласен, что вы можете создать машины, делающие все, о чем вы упомянули, но вы никогда не заставите машину проделать X”. В этой связи предлагалось множество вариантов X; я приведу здесь лишь некоторые из них:
Быть доброй, изобретательной, красивой, дружелюбной… быть инициативной, иметь чувство юмора, отличать добро от зла, делать ошибки… влюбляться, наслаждаться клубникой со взбитыми сливками… влюбить кого-нибудь в себя, учиться на опыте… правильно использовать слова, думать о себе… выказывать такое же разнообразное поведение, как человек, создать нечто новое…
Обычно все это — голословные утверждения. Мне кажется, большинство из них основаны на принципе научной индукции. Человек за свою жизнь видел тысячи машин. Из того, что он видел, он делает обобщающие выводы. Машины уродливы, каждая из них построена для выполнения определенного задания, другие задания они выполнять не умеют, вариативность поведения каждой из них крайне мала и так далее. Естественно, он заключает, что это общие свойства всех машин. Большинство перечисленных ограничений связаны с очень маленькой памятью большинства машин. (Я предполагаю, что понятие “памяти” здесь понимается широко и включает недискретные машины. Точного определения здесь не нужно, поскольку в подобных дискуссиях математическая аккуратность не требуется.) Несколько лет назад почти ничего не было известно о цифровых компьютерах и по этому поводу легко было вызвать большое недоверие, описав их свойства, но не упомянув об их конструкции. Предположительно это происходило из-за применения принципа научной индукции, подобного вышеизложенному. Это применение, разумеется, происходит в большой степени бессознательно. Когда обжегшийся ребенок боится огня и показывает свою боязнь, избегая его, я сказал бы, что он применяет принцип научной индукции. (Безусловно, я мог бы описать его поведение и множеством иных способов.) Творения и обычаи человечества — не самый подходящий материал для применения научной индукции. Чтобы получить достоверные результаты, необходимо исследовать огромный участок пространственно-временного континуума. Иначе мы можем (как делает большинство английских детей) решить, что все говорят по-английски и что учить французский глупо.
Тем не менее, о многих из упомянутых ограничений следует поговорить особо. Неспособность наслаждаться клубникой со взбитыми сливками может показаться читателю легкомысленной. Может быть, нам и удалось бы создать машину, способную наслаждаться этим восхитительным блюдом, но любая подобная попытка была бы идиотской. В упомянутой неспособности важно то, что она способствует другим ограничениям: например, возникновению дружеских отношений между человеком и машиной, подобных дружеским отношениям между двумя белыми или двумя черными людьми.
Утверждение, что машина не способна ошибаться, довольно интересно. На это хочется ответить: “Но разве они становятся от этого хуже?” Но давайте отнесемся к нему с большей симпатией и попробуем выяснить, что же оно на самом деле означает. Мне кажется, эта критика может быть объяснена с точки зрения игры-имитации. Утверждается, что экзаменатор сможет отличить машину от человека, просто задав обоим несколько арифметических задач. Машина будет безошибочна, благодаря своей мертвой аккуратности. Ответ на это прост. Машина, запрограммированная для подобной игры, не будет пытаться давать правильные ответы на арифметические вопросы. Она будет иногда нарочно ошибаться с тем, чтобы сбить экзаменатора с толку. Вероятно, механической неполадкой был бы вызван неверный тип ошибочных ответов. Мы еще не рассмотрели достаточно внимательно этот критический аргумент, но у нас нет места, чтобы углубляться в него еще больше. Мне кажется, что он зависит от неразличения между двумя типами ошибок. Мы можем называть их “ошибки функционирования” и “ошибки интерпретации”. Ошибки функционирования зависят от механических или электрических неполадок, из-за которых машина ведет себя не так, как хотели программисты. В философских дискуссиях подобные ошибки обычно не принимаются в расчет, и обсуждаются “абстрактные машины”. Эти абстрактные машины являются скорее математической фикцией, чем физическими объектами. Они по определению не способны на ошибки функционирования. В этом смысле мы можем правдиво сказать, что “машины никогда не делают ошибок”. Ошибки интерпретации могут возникнуть только тогда, когда выходным данным машины придается некое значение. Например, машина может выдать высказывание на английском языке или математическое уравнение. Когда высказывание ложно, мы говорим, что машина допустила ошибку интерпретации. У нас нет причины утверждать, что машина не может допустить подобную ошибку. Она может быть запрограммирована так, что будет все время печатать “0 = 1” — или, используя не такой крайний пример, она может иметь какой-нибудь метод для нахождения выводов путем научной индукции. Мы можем ожидать, что этот метод иногда приводит к ошибочным результатам.
Утверждение, что машина не может являться предметом своих собственных мыслей, можно опровергнуть, только доказав, что машина имеет какие-либо мысли с каким-либо предметным содержанием. Тем не менее, “предметное содержание машинных операций” в действительности имеет значение, по крайней мере для людей, имеющих с ним дело. Скажем, если машина пыталась найти решение уравнения x2 − 40x − 11 = 0, соблазнительно представить это уравнение как часть предметного содержания машины в данный момент. В этом смысле машина несомненно может являться собственным предметным содержанием. Ее можно использовать, чтобы помочь составлять программы для нее же или чтобы предсказать эффект изменения в ее структуре. Наблюдая за результатами своего поведения, она может менять собственные программы с тем, чтобы более эффективно добиться поставленной цели. Все это не утопические мечтания, но возможности ближайшего будущего.