Выбрать главу

— Закон первый: робот не может причинить вред человеку или своим бездействием допустить, чтобы человеку был причинен вред. Закон второй: робот должен повиноваться всем приказам, которые отдает человек, кроме тех случаев, когда эти приказы противоречат Первому закону. Закон третий: робот должен заботиться о своей безопасности в той мере, в какой это не противоречит Первому и Второму законам.

— Понимаю, — сказал судья, делая быстрые заметки. — И этими законами определяется поведение каждого робота?

— Каждого, без исключения. Любой специалист может это подтвердить.

— В том число и робота И-Зэт-27?

— Да, ваша честь.

— Не исключено, что вам придется повторить свое заявление под присягой.

— Я готов, ваша честь.

Он сел.

Его седовласая собеседница — доктор Сьюзен Кэлвин, главный робопсихолог фирмы «Ю.С.Роботс» — взглянула на своего обремененного учеными титулами начальника без особого одобрения. Впрочем, люди редко пользовались ее расположением.

— Показания Гудфеллоу были точными, Альфред? — спросила она.

— По существу, да, — пробормотал Лэннинг. — Правда, он вовсе не был так уж напуган роботом, а когда услышал цену, то был готов вполне по-деловому обсудить мое предложение. Но в целом никаких серьезных искажений он не допустил.

— Было бы разумнее запросить с них более высокую цену, — задумчиво проговорила доктор Кэлвин.

— Мы стремились пристроить Изи.

— Знаю. Возможно, даже с излишним рвением. Они представят это так, словно мы преследовали тайные цели.

— Так оно и было, — раздраженно заметил доктор Лэннинг. — Я сам это признал на заседании ректората.

— Они могут представить это так, будто мы признались в одних замыслах, чтобы скрыть другие, еще более тайные.

Скотт Робертсон, сын основателя «Ю.С.Роботс» и владелец контрольного пакета акций, наклонился к Сьюзен Кэлвин с другой стороны и произнес оглушительным шепотом:

— А почему бы вам не заставить Изи рассказать, как все было, чтобы мы знали, что к чему?

— Вы же знаете, Робертсон, что он не в состоянии говорить об этом.

— Так заставьте его. Вы же психолог, доктор Кэлвин. Заставьте его говорить.

— Если я психолог, мистер Робертсон, — сухо произнесла Сьюзен Кэлвин, — то уж позвольте мне решать самой. Я не допущу, чтобы моего робота принуждали к действиям, угрожающим его благополучию.

Робертсон нахмурился и собирался ответить резкостью, по судья Шейн укоризненно постучал молоточком, и он нехотя замолчал.

Свидетельское место занял Фрэнсис Дж. Харт, заведующий кафедрой английского языка и декан факультета аспирантов. Это был полнеющий мужчина, одетый в безукоризненный темно-серый костюм неброского покроя; несколько прядей волос под разными углами пересекали его розовую лысину. Он уселся поглубже в свидетельское кресло, аккуратно сложил руки на коленях и время от времени натянуто улыбался.

— Впервые о роботе И-Зэт-27 я услышал на заседании административного совета ректората от профессора Гудфеллоу, — начал он. — Позднее, 10 апреля прошлого года, мы посвятили этому вопросу специальное заседание, на котором я был председателем.

— У вас сохранился протокол?

— Видите ли, — слегка улыбнулся декан, — мы не вели протокола. Наше заседание носило конфиденциальный характер.

— Что же произошло на этом заседании?

Сидя на председательском месте, декан Харт чувствовал себя не вполне уверенно. Впрочем, и другие члены комитета заметно нервничали. Лишь доктор Лэннинг являл собой картину безмятежного спокойствия. Худой и высокий, с копной седых волос, он напоминал Харту старинные портреты президента Эндрю Джексона.

На столе, за которым заседал комитет, были разбросаны образцы заданий, выполненных роботом. Профессор Майнотт, заведующий кафедрой физической химии, одобрительно улыбаясь, разглядывал вычерченный Изи график.

Харт откашлялся и начал:

— Не приходится сомневаться, что робот способен вполне компетентно выполнять определенного рода черновую работу. Перед началом заседания я просмотрел эти образчики и, должен сказать, обнаружил в них очень мало ошибок.

Он взял со стола длинные печатные листы, каждый примерно втрое длиннее обычной книжной страницы. Это были гранки, куда авторы вносят исправления, прежде чем текст будет сверстан в виде книжных полос. С обеих сторон печатный текст окаймляли широкие поля, на которых были видны каллиграфически выписанные корректурные знаки. Отдельные слова были вычеркнуты, а вместо них на полях написаны другие слова — таким красивым и ровным почерком, что казалось, будто они тоже напечатаны. Голубые корректорские знаки указывали, что ошибку допустил автор, красные — наборщик.

— Полагаю, что ошибок было даже меньше, чем «очень мало», — сказал Лэннинг. — Осмелюсь утверждать, доктор Харт, что их не было вовсе. Я совершенно уверен, что, каким бы ни был исходный текст, корректура проведена безукоризненно. Если же рукопись, гранки которой правил Изи, содержит не грамматические или стилистические погрешности, а ошибки по существу, то робот здесь ни при чем.

— С этим никто не спорит. Однако в некоторых местах робот изменил порядок слов, а я не уверен, что правила английской грамматики сформулированы с достаточной строгостью, позволяющей во всех случаях надеяться на правоту робота.

— Позитронный мозг Изи, — ответил Лэннинг, обнажая в улыбке крупные зубы, — буквально до предела напичкан содержанием главнейших трудов по грамматике и стилистике английского языка. Я уверен, что вы не в состоянии указать хотя бы на одну явную погрешность робота.

Профессор Майнотт оторвался от графика и поднял голову.

— Я хотел бы вас спросить, доктор Лэннинг: а зачем вообще нам нужен робот, учитывая неблагоприятное общественное мнение и всевозможные вытекающие из этого трудности? Несомненно, успехи науки в области автоматизации позволяют вашей фирме сконструировать вычислительную машину обычного и всеми признанного типа, которая могла бы держать корректуру.

— Разумеется, это в наших силах, — сухо ответил Лэннинг, — но для такой машины потребуется кодировать текст и наносить его на перфоленту. Машина будет выдавать поправки опять же в виде специальных символов. Вам придется держать сотрудников, занятых переводом слов в символы и символов в слова. Более того, подобная машина уже ни на что другое не будет способна. Например, она не сумеет вычертить график, который вы держите в руках.

Майнотт что-то проворчал в знак согласия.

— Гибкость и приспособляемость — вот характерные черты робота с позитронным мозгом, — продолжал Лэннинг. — Робот способен выполнять самую разнообразную работу. Он для того и создан по образу человека, чтобы пользоваться теми приборами и инструментами, которые, в конце концов, были предназначены человеком для самого себя. С роботом можно разговаривать, и он способен отвечать. С ним даже можно спорить и убеждать его — в определенных рамках, разумеется. По сравнению с самым простеньким роботом с позитронным мозгом обычная вычислительная машина — всего лишь огромных размеров арифмометр.

— Но если мы все будем спорить и разговаривать с роботом, то не собьем ли мы его с толку? — спросил Гудфеллоу, посмотрев на Лэннинга. — Я полагаю, что способность робота усваивать информацию не безгранична.

— Вы правы. Но при нормальной работе его памяти хватит по крайней мере на пять лет. Робот сам почувствует, что его память нуждается в очистке, и наша фирма выполнит эту работу без дополнительной оплаты.

— Бесплатно?

— Именно. «Ю.С.Роботс» оставляет за собой право обслуживать роботов вне рамок их обычной деятельности. Вот почему мы стремимся сохранять контроль над нашими позитронными роботами и сдаем их в аренду, вместо того чтобы продавать. Пока робот выполняет работу, для которой он предназначен, им может управлять любой человек. Но вне этих рамок роботы требуют квалифицированного обращения, и здесь к вам на помощь придут наши специалисты. Например, любой из вас в состоянии очистить память робота И-Зэт, просто приказав ему забыть те или иные сведения. Но почти наверняка вы сформулируете этот приказ неверно, и робот забудет либо слишком много, либо слишком мало. Разумеется, мы сразу же обнаружим подобное самовольное манипулирование с роботом — для этого в мозг робота встроены специальные предохранительные устройства. Но поскольку в обычных условиях нет необходимости очищать наметь робота или совершать тому подобные бессмысленные действия, то этой проблемы и не существует.