Быть доброй, изобретательной, красивой, дружелюбной… быть инициативной, иметь чувство юмора, отличать добро от зла, делать ошибки… влюбляться, наслаждаться клубникой со взбитыми сливками… влюбить кого-нибудь в себя, учиться на опыте… правильно использовать слова, думать о себе… выказывать такое же разнообразное поведение, как человек, создать нечто новое…
Обычно все это — голословные утверждения. Мне кажется, большинство из них основаны на принципе научной индукции. Человек за свою жизнь видел тысячи машин. Из того, что он видел, он делает обобщающие выводы. Машины уродливы, каждая из них построена для выполнения определенного задания, другие задания они выполнять не умеют, вариативность поведения каждой из них крайне мала и так далее. Естественно, он заключает, что это общие свойства всех машин. Большинство перечисленных ограничений связаны с очень маленькой памятью большинства машин. (Я предполагаю, что понятие “памяти” здесь понимается широко и включает недискретные машины. Точного определения здесь не нужно, поскольку в подобных дискуссиях математическая аккуратность не требуется.) Несколько лет назад почти ничего не было известно о цифровых компьютерах и по этому поводу легко было вызвать большое недоверие, описав их свойства, но не упомянув об их конструкции. Предположительно это происходило из-за применения принципа научной индукции, подобного вышеизложенному. Это применение, разумеется, происходит в большой степени бессознательно. Когда обжегшийся ребенок боится огня и показывает свою боязнь, избегая его, я сказал бы, что он применяет принцип научной индукции. (Безусловно, я мог бы описать его поведение и множеством иных способов.) Творения и обычаи человечества — не самый подходящий материал для применения научной индукции. Чтобы получить достоверные результаты, необходимо исследовать огромный участок пространственно-временного континуума. Иначе мы можем (как делает большинство английских детей) решить, что все говорят по-английски и что учить французский глупо.
Тем не менее, о многих из упомянутых ограничений следует поговорить особо. Неспособность наслаждаться клубникой со взбитыми сливками может показаться читателю легкомысленной. Может быть, нам и удалось бы создать машину, способную наслаждаться этим восхитительным блюдом, но любая подобная попытка была бы идиотской. В упомянутой неспособности важно то, что она способствует другим ограничениям: например, возникновению дружеских отношений между человеком и машиной, подобных дружеским отношениям между двумя белыми или двумя черными людьми.
Утверждение, что машина не способна ошибаться, довольно интересно. На это хочется ответить: “Но разве они становятся от этого хуже?” Но давайте отнесемся к нему с большей симпатией и попробуем выяснить, что же оно на самом деле означает. Мне кажется, эта критика может быть объяснена с точки зрения игры-имитации. Утверждается, что экзаменатор сможет отличить машину от человека, просто задав обоим несколько арифметических задач. Машина будет безошибочна, благодаря своей мертвой аккуратности. Ответ на это прост. Машина, запрограммированная для подобной игры, не будет пытаться давать правильные ответы на арифметические вопросы. Она будет иногда нарочно ошибаться с тем, чтобы сбить экзаменатора с толку. Вероятно, механической неполадкой был бы вызван неверный тип ошибочных ответов. Мы еще не рассмотрели достаточно внимательно этот критический аргумент, но у нас нет места, чтобы углубляться в него еще больше. Мне кажется, что он зависит от неразличения между двумя типами ошибок. Мы можем называть их “ошибки функционирования” и “ошибки интерпретации”. Ошибки функционирования зависят от механических или электрических неполадок, из-за которых машина ведет себя не так, как хотели программисты. В философских дискуссиях подобные ошибки обычно не принимаются в расчет, и обсуждаются “абстрактные машины”. Эти абстрактные машины являются скорее математической фикцией, чем физическими объектами. Они по определению не способны на ошибки функционирования. В этом смысле мы можем правдиво сказать, что “машины никогда не делают ошибок”. Ошибки интерпретации могут возникнуть только тогда, когда выходным данным машины придается некое значение. Например, машина может выдать высказывание на английском языке или математическое уравнение. Когда высказывание ложно, мы говорим, что машина допустила ошибку интерпретации. У нас нет причины утверждать, что машина не может допустить подобную ошибку. Она может быть запрограммирована так, что будет все время печатать “0 = 1” — или, используя не такой крайний пример, она может иметь какой-нибудь метод для нахождения выводов путем научной индукции. Мы можем ожидать, что этот метод иногда приводит к ошибочным результатам.