«Фантоматика будет истинным благословением для слепых (кроме тех, у кого слепота центрального происхождения, то есть у кого поврежден зрительный центр коры головного мозга), им она откроет огромный мир зрительных впечатлений. Таким же благословением будет она и для инвалидов, больных, выздоравливающих и т. д., а также для стариков, желающих еще раз пережить молодость, — одним словом, для миллионов людей. Мы видим, что ее развлекательные функции могут отойти на второй план.
Фантоматика, конечно, понравится не всем. Появятся группы ее ярых противников, обожателей подлинного, которые будут презирать немедленность исполнения желаний в фантоматике. Я думаю (в 1962 году), однако, что будет достигнут разумный компромисс, так как в конечном счете любая цивилизация является облегчением жизни человека, а прогресс в значительной мере сводится к дальнейшему расширению области этих облегчений. Несомненно, что фантоматика может стать и настоящей опасностью, общественным бедствием, однако такая же возможность существует (хотя и не в одинаковой степени) и для любых достижений технического прогресса. Общеизвестно, сколь опасные последствия по сравнению с техникой пара и электричества может иметь злонамеренное использование атомной энергии. Однако эта проблема касается уже общественных систем и господствующих политических отношений и не имеет ничего общего ни с фантоматикой, ни с какой-либо областью техники».
Фантоматика будет их зависимой величиной, хотя не обязательно функцией (в математическом понимании).
Последние предложения я дописываю в мае 1991 года, чтобы добавить в заключение еще одно замечание. В прейскурантах фирм, производящих системы приспособлений для «виртуальной реальности», я вижу такие позиции, как Eye-Phone— цена 9400 долларов, Data-Glove (8800 долларов), пакет VPL (комплект за 220 000 долларов, в который входят два компьютера типа Apple Mac II), причем реклама уверяет, что тяжелые надеваемые Eye-Phone имеют по 86 000 образоформирующих точек, а Data-Glove вдоль каждого пальца подключена синхронно к аппаратуре так, что все в совокупности работает в реальном времени, то есть «фантоматизированный» не замечает малейших задержек между своими движениями и изменениями адекватного восприятия и т. д. Я не могу и не хочу изменять конец этого текста в рекламном проспекте фирмы VPL Research из калифорнийского Редвуд-Сити. Вышеприведенные сведения, датированные летом прошлого (1990) года, подтверждают, что существование зачатков того, что я назвал фантоматикой, уже не является ни утопией, ошибочно принимаемой как точный прогноз, ни фантастической сказкой. Что же делает философ, который в такое время публикует свои избранные эссе за тридцать прошедших лет? В соответствии с названием антологии переизданий «Похвала непоследовательности» («Pochwaіa niekonsekwencji». — London, «Puls», tom III, pp. 42–51) спокойно повторяет, что все, что в 1963–1964 годах выдумал Лем о фантоматике, является сказкой.
Тайна китайской комнаты
Человек и машина[31]
1
«Человек-машина» — это работа французского философа-материалиста Ламетри, написанная в середине XVIII века. Не подлежит сомнению, что как сторонники, так и противники подобной крайней точки зрения на человеческую природу нашлись бы и сегодня. Другими словами, выражаясь более современно, спор был бы разрешен только тогда, когда мы смогли бы создать машину, равнозначную человеку. Однако что означает «равнозначная» человеку? Наше сходство с другими живыми тварями в физическом плане не вызывает сомнения: человек — это живородящее млекопитающее, обладающее органами, которые в очень небольшой степени отличаются от органов и общей физиологии других млекопитающих; отличает же нас от них разум, то есть мозг.
2
Как легко может догадаться Читатель, этими немного туманными словами я приближаюсь к вполне современному вопросу, который поставил почти полвека назад английский математик Алан Тьюринг: возможно ли сконструировать такой «конечный автомат» (компьютеры являются такими автоматами как одна из ветвей информационного дерева, выросшего из зерна кибернетики), который не удалось бы в разговоре отличить от человека? В 60-е годы я много раз участвовал, главным образом в бывшем Советском Союзе, именно в таких дискуссиях и горячих спорах, в которых эту проблему пытались разгрызть. Как известно, программы (software), способные вести некоторые разновидности разговоров с человеком, уже существуют. Однако любую такую программу, имитирующую разумного собеседника, можно раньше или позже «разоблачить». Простейшим способом, до которого (не знаю почему) никто или почти никто не додумался, является рассказ неизвестному участнику дискуссии простенькой истории, например анекдота или шутки, и требование, чтобы рассказанное он повторил своими словами. Машина легко повторит все буквально; нормальный человек не сможет быть точным в пересказе, поскольку он запоминает не столько сложенный из слов ТЕКСТ, сколько его СМЫСЛ, то есть понимает рассказ. Перед нами возникает реальная проблема: можем ли мы и каким образом убедиться в том, что машина «компьютер» понимает что-либо подобно человеку? Необходимо вначале отметить, что «понимание чего-либо» имеет свои уровни и виды. Собака в некотором смысле «понимает», чем занимается ее хозяин, когда видит, как тот собирает чемодан, ибо это она уже видела и «знает», что предстоит какая-то поездка. Но даже и муха «знает», что ей грозит от мухобойки, которой размахивает человек, разгневанный на ее назойливость. Способ, посредством которого разные виды «знания» различаются между собою в различных ситуациях, невозможно проще объяснить, кроме как отталкиваясь от «инстинктов», среди которых основным является инстинкт самосохранения, и в этом самая суть дела. Ни один компьютер, в совершенстве играющий в шахматы, или переводящий научные тексты, или ставящий диагнозы по результатам анализов и информирующий о болезнях, не будет пытаться избежать ударов молотком или киркой, то есть не проявит «инстинкта самосохранения», который лежит в основе «формирования» всех видов живых тварей (за исключением растений). Тот, кто не пробовал кого-нибудь сожрать и не пытался противостоять пожиранию его другими в ходе миллиарднолетних эволюционных процессов, исчез; и только успешно поедающие и успешно убегающие остались жить.
3
Правда, некую разновидность «инстинкта самосохранения» можно было бы в компьютерах реализовать, однако подобные меры не приблизят нас к разрешению проблемы. Дуглас Хофштадтер в своей толстой, забавной и интересной книге «Metamagical Themes» описывает ситуацию, когда он должен был отличить человека от машины, при этом в конце оказалось, что он разговаривал с несколькими студентами, отвечающими на его расспросы ТАКИМ ОБРАЗОМ, чтобы сбить его с толку. Когда он уже решил, что разговаривает с компьютером, правда была раскрыта. Что из этого следует? В наиболее примитивной форме дело представляется так, как я описал в «Сумме технологии» более тридцати лет назад. В книге говорилось, что можно осуществлять очередные и вместе с тем более перспективные конструкторские работы (сегодня я бы сказал «программирование»), меняя «разоблаченные» компьютеры на более совершенные с точки зрения имитации, и, может быть, дошли бы до такой модели, которую в разговорах отличить от человека было бы невозможно.
4
Между прочим, даже для повторения рассказанного найдутся уловки. Именно машины, сортирующие (например) научные статьи, запрограммированы таким образом, чтобы различать тексты в соответствии со «словами-ключами». Если частота появления таких слов, как «плазма крови», «гемофилия» или «клеточная оболочка», перешагнет определенный порог, значит, текст, вероятнее всего, относится к области медицины или (шире) биологии. Если в нем появляются «кварки» или «нуклиды» — понятно, куда его отнести. Однако поступая этим первоначально очень примитивным и «ничего не понимающим» способом, можно научить машину пересказывать так, чтобы повторение представленного ей текста было «скелетным» — грамматически, лексикографически и стилистически очень близким к рассказанному, но чтобы оно не совпадало дословно с исходным. То есть можно сделать машину удачным «обманщиком», выдающим себя за живого участника дискуссии, и на этом этапе появляется следующая проблема.