Короче говоря, эта «структура» должна быть способной к полной перестройке всех своих схем, иными словами, абсолютно пластичной, т.е. универсальной, «формой (всех возможных) форм». Таков именно реальный человек и его мозг.
Стало быть, если вы хотите создать искусственный ум на этом пути, будьте добры создать искусственно абсолютную копию живого человека и не забудьте [269] снабдить его не только всеми «плюсами», но и всеми «минусами» человеческой породы, иначе вы его не сумеете подключить к аккумулятору нашей цивилизации.
В одной из своих статей академик Колмогоров сказал: «В шутливой форме: возможно, что автомат, способный писать стихи на уровне больших поэтов, нельзя построить проще, чем промоделировав все развитие культурной жизни того общества, в котором поэты реально развиваются»{1}.
Мы думаем, что это нужно утверждать не в шутливой форме, а в самой серьезной, и не только про поэтов, а и про математиков, и про людей, занятых планированием народного хозяйства, и про любого человека, если он действительно мыслящий индивид.
Мечтать о создании машин «умнее человека» можно на одном из двух путей, которые мы проанализировали. Можно, если вдохновиться лозунгом – «машина для машины». Можно, как можно создавать «искусство для искусства», «науку ради науки», «технику ради техники». А не ради человека, не во имя его развития. Можно, если – сознавая или не сознавая – прочно стать на почву технократических предрассудков, с точки зрения которых живой человек – лишь сырье и «средство» развития техники, а не самоцель.
Альтернатива здесь неумолима. Либо технику (кибернетическую или некибернетическую) рассматривают только как средство, только как орудие выполнения человеческих целей, либо она превращается в самоцель, а человек – в средство, в сырье.
Можно так мыслить? Можно. К сожалению, некоторые теоретики так и мыслят. Но такой способ мышления философски-теоретически не оправдан.
Человек остается человеком, а машина – машиной. И вопрос о взаимоотношениях человека и машины – это прежде всего социальный вопрос, а вовсе не кибернетический. И этот вопрос не исчезает, не снимается с повестки дня, когда некоторые горячие головы из числа поклонников кибернетики объявляют, что человек – это тоже машина, и, стало быть, превращают острейшую социальную проблему в семейное дело двух машин... А тогда это вопрос и в самом деле выглядит чисто технически. [270]
Стараясь дать научное обоснование «мыслящей машине», некоторые философы апеллируют к новейшим достижениям математики и математической логики. Но стоит присмотреться к таким аргументам внимательно, как сразу обнаруживается, что они предполагают – в качестве условия своей доказательности – именно то, что с их помощью хотят доказать. А именно – крайне упрощенные и приблизительные представления о человеческом мышлении. Вот пример.
Л.Б. Баженов в статье «О некоторых философских аспектах проблемы моделирования мышления кибернетическими устройствами» всерьез полагает, что все аргументы против возможности создать искусственное мышление легко отметаются простой ссылкой на авторитет теоремы Маккаллока–Питтса: «Теорема Маккаллока–Питтса утверждает, что любая функция естественной нервной системы, которая может быть логически описана с помощью конечного числа слов, может быть реализована формальной нервной сетью. Это означает, что нет таких функций мышления, которые, будучи познаны и описаны, не могли бы быть реализованы с помощью конечной формальной нервной сети, а значит, и в принципе воспроизведены машиной»{2}.
Чтобы принять этот аргумент в качестве доказательного, требуется принять на веру следующие предпосылки: 1) что «мышление» – это «функция естественной нервной сети» без указаний, в чем именно заключается специальная характеристика этой частной функции «нервной сети», в отличие, скажем, от зубной боли; 2) что эта расплывчатая «функция» должна быть «логически описана с помощью конечного числа слов», т.е. представлена в виде формально-непротиворечивой системы терминов и высказываний; 3) что такое «описание» и есть исчерпывающее познание «мышления», т.е. современная ступень развития логики как науки.