Олег опустился в кресло. Ирвин К. Доулинг тщательно спрятал усмешку и перевёл взгляд на Березина.
— Компания «Рашен Роботс» в данный момент разрабатывает программу ГРО — глобальной роботизации общества, — продолжил Березин. — У нас имеется оригинальный концепт робота, способного взять на свои плечи всю физическую работу и обеспечить россиян массой свободного времени. По проекту каждый робот будет обладать саморазвивающимся псевдоинтеллектом. Кроме того, роботы должны быть надежно защищены от случайной порчи, абсолютно послушны и безвредны для человека. С какими трудностями нам пришлось столкнуться в ходе решения этой задачи, сейчас расскажет мистер Доулинг.
Ирвин К. Доулинг широко улыбнулся.
— Изобретать велосипед в этом вопросе нам не пришлось. За основу были взяты три закона роботехники известного учёного и фантаста Азимова. «Робот не может причинить вред человеку или своим бездействием допустить, чтобы человеку был причинен какой-либо вред», «робот должен повиноваться приказам человека, если выполнение этих приказов не противоречит первому закону» и «робот должен защищать себя, если эта защита не противоречит первому и второму законам».
— А в чём возникла проблема? — спросил Олег.
— Третий закон реализовать было проще всего. Хотя изначально роботы просто отказывались работать. По их мнению, физический труд ведёт к износу составляющих робота деталей. Но мы ввели ограничение на срок, через который возможно полное нарушение работоспособности механизма, и всё нормализовалось. Со вторым законом было гораздо сложнее. Требовалось в доступных для псевдоинтеллекта терминах объяснить что такое «человек».
— Двуногое прямоходящее животное, обладающее разумом? — предположил Олег.
— А если этот человек — инвалид. И у него только одна нога. Или вообще ни одной? А если он поступает с точки зрения робота неразумно? К тому же под выданное вами определение попадают сами роботы. Что будет, если один робот станет считать другого робота человеком?
— Кх-кх, — Олег пристыжено опустил голову. — Как я понимаю, это и есть моё тестовое задание?
— Нет, — Ирвин К. Доулинг задумчиво постучал пальцами по подлокотнику кресла. — Это достаточно простая задача. Нудная, но всё-таки простая. Нами написана программа, выявляющая на основании семидесяти трёх показателей, человек находится перед роботом или нет. Максимальные проблемы возникли, когда мы попытались программно реализовать первый закон роботехники.
— Робот не может причинить вред человеку или своим бездействием допустить, чтобы человеку был причинен какой-либо вред? — спросил Олег.
— Именно. Здесь имеются два подводных камня, с которыми мы уже сталкивались при решении предыдущих задач. Термин «человек» и понятие «вреда».
— А как же программа, которая «на основании семидесяти трёх показателей…"? — ехидно заметил Олег.
— Одно дело, когда человек находится прямо перед тобой и пытается отдавать тебе приказы. И совсем другое дело, когда он находится, например, около строящегося дома, а робот с пятнадцатого этажа выбрасывает строительный мусор. Дистанционно распознать человек это или вовсе не человек за короткий отрезок времени крайне затруднительно.
— Понятно, — тяжело вздохнул Олег. — А с вредом-то что вышло?
— Вред, наносимый роботом самому себе, и вред, наносимый роботом человеку, несопоставимы. Идеальный вариант — когда робот вообще не наносит никакого вреда человеку, но это, увы, невозможно. В нашем обществе достаточно людей, которым само существование роботов может нанести моральный вред. Концепция вреда для человека так и не сформулирована. Представьте себе робота, который препятствует альпинистам, так как подъём в горы на его взгляд напрямую связан с риском для жизни. Или робота, который громит табачную лавку, потому что курение вредит человеческому здоровью. Представили?
— В общих чертах, — ответил Олег.
— Так вот, это ещё не всё. При полевых испытаниях выяснилось, что концепции трёх законов роботехники и саморазвивающегося псевдоинтеллекта несовместимы.
— А это ещё почему? — не понял Олег.
— Самостоятельное развитие интеллекта подразумевает динамические приоритеты, зависящие от опыта данного индивида. Если наш псевдоинтеллект сделать полностью динамическим, то рано или поздно три закона уйдут в историю, как не соответствующие изменившимся приоритетам робота. Если же три закона жестко привязать к основам мотивации псевдоинтеллекта, то это затормозит развитие робота, некоторые ситуации, связанные с риском для жизни человека не будут рассматриваться, что обесценит роботов в ряде специальностей. Например, такой робот не сможет работать спасателем или инструктором экстремальных видов спорта.