— Я говорил, что оставалась ничтожнейшаявероятность, которая, возможно, у нее была, — поправил я. — У нее выявили смерть мозга. Всё, ты слышишь, Моуз, всё ее программное обеспечение было разрушено. Поддержание простого существования — это не жизнь. Даже если настал бы день, когда она перестанет нуждаться в аппаратах, та Кэти, которую я знал, ушла навсегда.
— Понимаю, — ответил он. — Однако программное обеспечение этого робота невредимо.
Я удивленно взглянул на него:
— Ты с ним общался?
— Да, Гэри, — ответил он. — В порядке определения состояния его программирования.
Он спрашивал робота о самочувствии? Это так… по-человечески.
— Тебе приказали починить робота? — наконец спросил я.
— Нет.
— Тогда почему ты просто не уничтожил его, как тебе было приказано?
— Ты бы уничтожил Кэти, если бы она могла общаться с тобой?
— Конечно, нет, — ответил я. — Но уничтожение робота очень сильно отличается от убийства человека. Это же просто машина. — Вдруг я почувствовал себя виноватым, говоря такие вещи другой машине. — А этот робот сказал тебе, что он не хочет быть уничтоженным?
— Нет, Гэри. На самом деле он сказал, что больше не исполняет никаких функций, следовательно, его существование не имеет логической цели.
— Ну тогда нет проблем, — легко вздохнул я. — Даже робот согласен, что должен быть уничтожен.
— Да, — согласился Моуз, — но только потому, что ему приказали подчиняться, Гэри.
— Нет, — сказал я. — Это потому, что этот робот не имеет чувства самосохранения. Иначе он наплевал бы на приказы и стал протестовать.
Перед тем как ответить, он целую минуту молча смотрел на меня:
— Итак, ты говоришь мне, что из-за того, что у роботов нет чувства самосохранения, приемлемо уничтожать их без причины или обоснования. — Это было сказано как утверждение, но ощущалось как вопрос. — Ты вчера говорил, что у Кэти тоже не осталось чувства самосохранения.
Наблюдение Моуза оказалось для меня ударом по больному. Я тяжело плюхнулся за стол, а мой потрясенный разум вернулся в тот роковой день шесть месяцев назад, когда врачи высказали почти твердую уверенность, что Кэти не сумеет выкарабкаться. Поскольку я знал, что ее мозг мертв и она не может сама решать свою судьбу, было ли мне, не сказать приемлемо, но проще решиться на отключение ее системы жизнеобеспечения? Неужели осознание, что она больше не сможет бороться за свою жизнь, оправдывает убийство?
Я некоторое время страдал и метался в этих мрачных мыслях, пока не решил, что позволил отключить аппарат вовсе не поэтому. А потому что жестоко поддерживать механическое существование организма, когда все, что делало се Кэти, ушло навсегда. Этот вывод вел к другому неудобному и беспокойному вопросу: жестоко по отношению к ней или ко мне?
Должно быть, я высказал свои мысли вслух, потому что Моуз снова заговорил:
— Ты принял верное решение? — спросил он.
— Да, — твердо ответил я и беззвучно добавил: «В конце концов, я на это надеюсь». — Но человеку всегда кажется неправильным забирать жизнь того, кто тебе дорог, независимо от любых оправданий.
Моуз принялся шагать по комнате туда-сюда. Он нервничал? Я всегда так делаю, когда расстроен. Должно быть, это еще одна деталь, которую он у меня перенял.
Вдруг он остановился и повернулся ко мне:
— Я не способен любить, но я верю, что прерывать существование этого робота — неправильно.
— Почему? — спросил я.
— Его можно починить.
Я удивленно уставился на него. Чего я не спросил, хотя должен был, это почему Моуз чувствовал себя обязанным починить робота. Вместо этого я сказал:
— Ты понимаешь, что можешь быть деактивирован, если откажешься слушаться начальство?
— Да, — просто ответил он.
— И это тебя не беспокоит? — Это чертовски беспокоило меня.
— У меня тоже нет чувства самосохранения, Гэри.
Я понял, что проклятый робот бросает мне в лицо мои же собственные рассуждения.
— Какой же смысл для тебя чинить робота, который уже не способен выполнять нужные компании функции, если возможным результатом будет уничтожение отлично работающего робота — тебя?
— Будь я поврежден, ты бы уничтожил меня, если бы знал, что меня можно починить? — спокойно спросил он.
«Нет, я бы не сделал этого, Моуз», — так я подумал, но вслух не сказал, потому что это лишь подтвердит его аргументы, и я потеряю машинку, ставшую моим единственным другом.
— Черт возьми, где ты подцепил эту дурацкую привычку отвечать вопросом на вопрос? — спросил я вместо этого. Потом понял, что сделал то же самое и рассмеялся: — Да не бери в голову!
Воцарилась неловкая тишина — по крайней мере, для меня она была тяжкой, — пока я обдумывал все сказанное, пытаясь найти лучшее разрешение его дилеммы. Самая логичная мысль: зачем вообще уничтожать сломанного робота, если его можно починить, дать новые задачи и поставить на другой участок или продать куда-нибудь еще? Роботы — штучки недешевые.
— Ты сказал, что можешь починить этого робота, — сказал я больше утвердительно, чем вопросительно.
— Да.
— Объясни-ка мне, что с ним не так?
— Ему требуется поставить новые детали: верхние конечности и почти всё туловище. Однако в моей мастерской нет в наличии требуемых частей, так как эта модель больше не выпускается.
Теперь я начал понимать:
— Значит, ты как устранитель неполадок связался с главным компьютером, увидел, что где-то еще имеются нужные детали, и заказал их, но заказ отменили?
— Верно. Мне ответили, что подобный ремонт робота для компании невозможен.
— Ладно, я всё понял. — И я действительно мог убедить его при помощи логики, что починка этого робота не стоила окончания существования Моуза. — Знаю, почему тебе не разрешили чинить его. Создать робота очень сложно и дорого, поэтому каждый робот, купленный компанией, обычно является долговременной инвестицией. Но поскольку выпуск этой модели прекращен, то запасные части для него больше не производятся, а потому слишком дорого покупать имеющиеся в ограниченном количестве детали на замену. Выгоднее купить совершенно новый, усовершенствованный механизм прямо с линии сборки. Ты следишь за мыслью, Моуз?
— Да, Гэри, — откликнулся он. — Решение отвечает экономическим интересам компании.
— Точно, — кивнул я, довольный тем, что он так быстро уловил суть. — Значит, этот робот будет заменен на более полезную для компании модель, и тебе не надо тратить время на его ремонт.
— Если бы Кэти можно было починить, — вдруг спросил он, — смог бы ты, вместо того чтобы тратить время и силы на ее ремонт, из соображений экономии выбрать себе новую родственную душу?
Я разочарованно вздохнул: дело оказывалось сложнее, чем я думал.
— Нет, не смог бы, Моуз. Но нельзя сравнивать ценность Кэти и стоимость робота. Она была единственной в своем роде. А этот сломанный робот всего лишь механизм, один из многих вышедших из сборочного цеха!
— Это робот модели Ди-Эй-Эн-564, Гэри. По всему миру их было выпущено всего восемьсот штук. Кэти была женщиной, а их в мире пять миллиардов. Не мог бы ты мне объяснить, что делает ее существование более ценным, чем функционирование робота?
Я скривился. И как это у Моуза всегда находятся такие логичные опровержения на все мои ответы и в то же время такие неправильные?
Как я тебе уже толковал, Кэти была моей родственной душой. И среди пяти миллиардов женщин другой такой нет. — Я помолчал, пытаясь подобрать слова, которые помогут мне заставить его понять: — Помнишь, я говорил тебе, что люди не рождаются полностью запрограммированными, как роботы, и наши эмоции могут выдавать различную реакцию на одинаковый набор данных? Так вот, процесс нашего обучения и развития — то есть нашего программирования — делает каждого из нас отличным от других. Потому человеческая жизнь более ценна, нежели жизнь робота. Когда один из нас умирает, его нельзя заменить.