Во всех случаях ИИ-программы были хороши только в одной определенной области, для которой они были разработаны. Они не обобщали и не выказывали гибкости, и даже их создатели признавались, что их программы не мыслят подобно человеку. Некоторые ИИ-проблемы, которые изначально казались легкими, не добились прогресса. Даже сегодня ни один компьютер не понимает язык так же хорошо, как может трехлетний ребенок, и не видит даже так, как может мышь.
По истечение многих лет усилий, неосуществленных обещаний и несостоявшихся успехов, ИИ начал блекнуть. Ученые из этой области ушли в другие области исследований. Компании, завязанные на ИИ, оказались неудачными. Вложения стали скудными. Стало казаться невозможным запрограммировать компьютер, чтоб он выполнял даже наиболее базовые задачи восприятия, языка и поведения. Сегодня немногое изменилось. Как я уже сказал ранее, до сих пор есть люди, которые верят, что ИИ-проблемы могут быть решены более быстрыми компьютерами, но большинство ученых думают, что в целом такие попытки ущербны.
Мы не должны порицать пионеров ИИ за их неудачи. Алан Тьюринг был блестящим человеком. Все могли бы сказать, что Машина Тьюринга должна изменить мир — и она сделала это, правда не путем ИИ.
Мой скептицизм насчет притязаний ИИ был обострен примерно в то самое время, когда я подал заявление в MIT. Джон Серл, влиятельный профессор философии в Калифорнийском Университете в Беркли, в то время говорил, что компьютеры не были и не смогут быть интеллектуальными. Чтоб доказать это, в 1980 году он предложил мысленный эксперимент, называемый Китайской Комнатой. Это было примерно следующее:
Предположим, у вас есть комната с прорезью в одной из стен, и внутри находится англоговорящий человек, сидящий за столом. У него есть большая книга с инструкциями и все карандаши и бумага для черновиков, которые ему как-нибудь могли бы понадобиться. Перелистывая книгу, он видит, что инструкции, написанные на английском языке, указывают ему способы манипулирования, сортировки и сравнения китайских символов. Представим себе, что указания ничего не говорят о значении китайских символов; они только задают, как символы должны быть скопированы, стерты, переупорядочены, перекодированы, и т. д.
Кто-то снаружи просовывает кусочек бумаги через прорезь. На ней написан рассказ и вопросы по этому рассказу, все на китайском. Человек внутри не говорит и не читает ни слова по-китайски, но он берет бумажку и идет работать с книгой. Он трудится и трудится, следуя инструкциям в книге. В некоторых ситуациях инструкции говорят ему записывать символы на клочке бумаги, в других — перемещать и стирать символы. Применяя правило за правилом, записывая и стирая символы, человек работает до тех пор, пока инструкции из книги не скажут ему, что все готово. По окончании, наконец у него есть новая написанная им страница символов, которая без его ведома стала ответами на вопросы. Книга говорит ему передать эту бумагу через прорезь. Он делает это и удивляется, для чего было это утомительное упражнение.
Снаружи человек, говорящий на китайском, читает страницу. Ответы правильные, он замечает — даже проницательные. Если его спросят, исходят ли эти ответы от интеллектуального разума, он определенно скажет «да». Но прав ли он? Кто понял историю? Определенно, это не человек внутри, несведущий в китайском и понятия не имеющий, о чем история. Это не книга, которая просто хорошая книга, спокойно лежащая на письменном столе среди кипы бумаг. Так где же возникло понимание? Сеел говорит, что никакого понимания не возникало, это всего лишь связка бессмысленного листания страниц и черкания карандашом. А теперь чудесное превращение: Китайская Комната — это в точности цифровая вычислительная машина. Человек — это процессор, бездумно выполняющий инструкции, книга — это программа, дающая инструкции процессору, черновики — это память. Таким образом, не важно, как хитро спроектирован компьютер для эмуляции интеллекта путем имитации человекоподобного поведения, у него нет понимания и нет интеллекта. (Серл дает понять, что он не знает, что такое интеллект; он только говорит, чем бы он ни был, компьютер не может иметь этого).
Этот аргумент создал огромную пропасть между философами и апологетами ИИ. Это расплодило сотни статей, а в дополнение — еще больше сарказма и вражды. Защитники ИИ выступили с массой контраргументов Серлу, таких как заявление, что хотя ни один из компонентов комнаты не понимает китайский, комната в целом понимает, или что человек в комнате действительно понимает китайский, но просто не знает этого. Что относительно меня, я думаю, что Серл был прав. Когда я размышлял над аргументом Китайской Комнаты и о том, как работают компьютеры, я не видел понимания ни там ни там. Я был убежден, что нам необходимо понять, что такое «понимание», найти способ формально определить его, что могло бы прояснить является система интеллектуальной или нет, когда она понимает китайский, и когда — нет. Одно лишь ее поведение не сможет нам этого сказать.