Выбрать главу

Они собрались в кабинете Березина — Олег, Ирвин К. Доулинг, Березин и ещё несколько специалистов, заинтересованных в реализации проекта. Олег беспомощно огляделся в поисках кафедры, не обнаружил её, глубоко вздохнул и прокашлялся.

— Я хочу предложить вам концепцию алгоритмизации трех законов Азимова в приложении к профильному развитию программы ГРО.

Публика притихла.

— Начну с основополагающей проблемы, стоящей перед нами. Каким образом совместить самообучающийся псевдоинтеллект и некоторые базовые законы, служащие отправной точкой для создания управляемой роботехники? Я предлагаю разделить блок программного управления роботом на базовый блок псевдоинтеллекта и некую служебную зону, предназначенную для администрирования деятельности робота. Для упрощения терминологии назовем эти разделы сознанием и подсознанием. Информация от сенсоров будет поступать к модулю «подсознание» и после некоторой обработки передаваться псевдоинтеллекту. После того как роботом будет принято то или иное решение, команда на осуществление деятельности будет передаваться «подсознанию», которое проверит это действие на соответствие законам Азимова. Если предлагаемое роботом действие не противоречит законам Азимова, оно будет выполнено, в противном случае «подсознание» заблокирует действие робота.

— Можно вопрос? — со стула поднялся Ирвин К. Доулинг. — У нас были подобные наработки, они назывались проект «совесть». Единственное отличие — информация от сенсоров сразу поступала в зону псевдоинтеллекта, минуя «подсознание». Это может значительно ускорить работу.

— Мистер Доулинг, разрешите узнать, почему этот проект не был доведен до конца?

Ирвин К. Доулинг вопросительно уставился на Олега, словно пытаясь понять, чего от него хочет этот выскочка. Потом медленно произнес:

— Мы не смогли создать описательную часть законов Азимова.

— А я смог, — спокойно сказал Олег. — Потрудитесь сначала выслушать доклад, прежде чем давать комментарии.

Ирвин К. Доулинг уселся на своё место, а Олег внимательно обвел взглядом присутствующих.

— Итак, приступим, собственно, к концепции алгоритмизации законов Азимова. Первый закон гласит: «робот не может причинить вред человеку или своим бездействием допустить, чтобы человеку был причинен какой-либо вред». Как доказал в своих произведениях классик, вторая часть этого утверждения по существу равна первой. Ситуация из Азимова: робот, не способный действием причинить вред человеку, но способный сделать это бездействием, решил убить человека. Робот берёт большой камень, поднимается на крышу дома и, когда человек проходит внизу, бросает камень ему на голову. Сил и возможностей робота хватит, чтобы остановить камень в полете, собственно, изначально он и собирается так сделать, не причинив человеку вреда. Первый закон не нарушен. Но во время полёта камня робот меняет своё решение. Он решает не спасать человека, и тот умирает.

— Нам известен этот парадокс, — ровным голосом сообщил Березин.

— В таком случае, я собираюсь его опровергнуть, — улыбнулся Олег.

По залу прокатился гул изумления.

— Существует ситуация, в которой робот даже с облегченным первым законом не способен умышленно причинить вред человеку. Это когда робот не знает о существовании человека. Механизм реализации этого действия таков. Подсознание получает информацию об окружающем мире и анализирует её на предмет наличия там человека. Существует подпрограмма, на основании семидесяти трех показателей определяющая человека. Псевдоинтеллект будет получать данные только о тех объектах, про которые подпрограмма сказала, что это «не человек». А все данные об объектах «человек» заносятся в отдельный буфер, и каждое действие робота «подсознание» проверяет на предмет нанесения вреда жизнедеятельности человека. Первый закон Азимова реализован.

— Кхм-кхм, интересная трактовка, — улыбнулся Березин. — Но если робот не знает о существовании человека, то как вы намерены реализовать второй закон?

— Ключевое слово, — ответил Олег. — Когда человек произносит определенный ключ, «подсознание» на него реагирует и передает псевдоинтеллекту устойчивое желание выполнить просьбу человека. Алгоритмизацию же третьего закона мистер Доулинг сообщил неделю назад. «Подсознание» просчитывает, как скоро будет нарушено функционирование робота и, если этот срок превышает гарантию, то игнорирует причиняемый роботу вред. Мистер Доулинг, теперь вы поняли, чем моя концепция отличается от проекта «совесть»?