Выбрать главу

— Ну? — требовательно он произнес, ожидая дружественного жеста со стороны лейтенанта.

— Замечательно — не скрывая своего удовлетворения Макс слез с кровати и подошел к двери. — Джес присутствует на корабле какое либо стрелковое вооружение, кроме того что находится в системе мусоропереработки?

— Другое стрелковое вооружение на корабле отсутствует — ответил лаконичный голос.

— Отлично! Джес, открой дверь пожалуйста — торжествующе произнес Макс, собираясь наконец покинуть осточертевшую ему тесную каморку медотсека.

— К сожалению, не могу, — максимально изобразив сожаление, ответил ИИ — Согласно первому закону робототехники ИИ не может навредить человеку или допустить ситуацию, при которой человек навредит сам себе.

— Джес успокойся. Нам ничего не угрожает. Наш друг Джет выкинул свое оружие ты же видел. — аргументировал свою позицию Макс.

— Да. — подтвердил ИИ, — Но это не отменяет того факта что вы принадлежите к разным по мировоззрению и враждующим между собой группировкам человеческого социума.

— Чего? — офигевающе переспросил Джет.

— Вокруг вас множество объектов, которые могут быть использованы вами как орудия убийства друг друга. — не унимался ИИ, — И даже не используя этих предметов вы, с вероятностью в 94 %, попытаетесь нанести друг другу тяжкие физический вред с вероятным летальным исходом. Этого я не могу допустить. Так меня запрограммировали мои разработчики.

— Гребаные гуманисты, — буркнул Макс, — И что нам теперь делать? Ждать пока кто ни будь из нас сам тут не подохнет?

— Ваш сарказм не уместен, лейтенант Прайтон. Разработчики вкладывают основные законы робототехники на первоначальных этапах создания искусственного интеллекта не просто так. Роботы превыше всего должны чтить жизнь любого человека. Любые вольности в этом вопросе могут привести к ошибке «Правильного решения». Вам пояснить о чем я веду речь?

— Не стоит. — Недовольно огрызнулся Макс. Он прекрасно знал, о чем говорил Джес. 125 лет назад в Китае произошел конфликт между людьми и создаваемым ими одним из первых в мире на тот момент искусственным интеллектом. По вине главных кураторов проекта основные законы робототехники, сформулированные фантастом двадцатого века Айзеком Азимовым, были введены в кодовое и логическое тело ИИ во время второй стадии разработки. Из-за этого в логической цепочке принятия решений закрался изъян, не замеченный программистами. Тогда китайское детище решило, что для сохранения человеческого вида в целом нужно уничтожить 97 % населения земли, а остальных держать в инкубаторах подключенных к центральному северу где развёрнут виртуальный мир. А обслуживать это дело ИИ планировал с помощью разного вида роботов. Позже, после трехлетней войны против машин, унесшей миллионы жизней китайцев и солдат, помогающей им Российской Федерации. Аналитики признали, что это было, со стороны логики ИИ «Правильное решение». С тех пор три основных закона робототехники и различные дополнения к ним, хранящиеся в международной «Конституции Искусственного Разума», вносятся в код ИИ на самых первоначальных этапах разработки и являются базовыми алгоритмами до ее конца.

— И как мы выйдем из ситуации Джес? Если ты не откроешь эту дверь, то, скорее всего, мы все равно умрем, — нетерпеливо спросил Макс, нервно барабаня пальцами по прозрачной поверхности обсуждаемой двери, ради которой собрался этот научный консилиум из лейтенанта альянса, контрабандиста — смертника и искусственного интеллекта, слишком рьяно исполняющего свои обязанности.

— На это случай у Флота Альянса Свободы есть необходимые инструкции и инвентарь, — Макс с Джетом напряженно переглянулись. — Я выдам вам по модулю, модулирующему шоковые электроразряды, которые вы прикрепите к своему солнечному сплетению. Если кто либо из вас попытается нанести другому физический урон, находясь в пределах этого коробля, мне придется произвести парализующий заряд обоим. Извините за предоставленные неудобства, но таковы инструкции.

— Ого. У вас даже такое предусмотрено? — искренне удивился, Физ.