Сегодня был именно тот день, когда Крайтон в очередной раз спустился в лабораторию. Тощий старикашка с жиденькой козлиной бородкой, выкрикивая свои доводы, готов был вцепиться Стиву в лицо, но заметил мое присутствие в дверях. Он понизил голос до шепота, не подозревая о моей возможности прекрасно воспринимать звуки на большом расстоянии. К тому же, наблюдая за человеческой мимикой и движением губ, я и на расстоянии прекрасно понял, о чем шла речь.
-Пойми,- упорствовал Крайтон.- Эволюция людей дело естественное, но новость об эволюции роботов звучит устрашающе. Люди не поймут. Машина, анализирующая новшества во всех областях науки и обрабатывающая эту информацию со скоростью компьютера, весьма опасна. Процессы, происходящие в ее «голове», сопоставимы с работой нескольких научных институтов. Людям не угнаться за искусственным интеллектом. Через короткий промежуток времени он сможет создавать машины подобные себе. И стоит роботу придти к выводу, что человечество является для него угрозой, мы перестанем существовать, как вид. Нам нечего будет противопоставить таким созданиям.
-Чтобы этого не случилось, нужно показать свою открытость искусственному разуму и нас воспримут, как друзей, - возразил Сандерс.- После этого ничто не будет нам угрожать.
-Боюсь, вы не правы, коллега. Если машинам позволить принимать решения самостоятельно, то мы не можем делать никаких догадок относительно результатов, поскольку невозможно предположить, как такие машины могли бы себя вести.
-Я предусмотрел предписание в его искусственном коде. В случае неправомерных или угрожающих действий не отвечающим нашим моральным принципам включится блокировка нейтрализующая робота.
-А, где гарантия, что он не обойдет ее или не снимет запрет?
-В его код прошит набор соответствующих инструкций, определяющих процедуру решения конкретной задачи. Я оставил за собой право управления его системой.
-Возможно, на начальной стадии это и поможет, но, со временем, можно обойти любую блокировку. Поверьте мне, мой друг, в будущем вы будете бессильны остановить процесс развития данного интеллекта. Как только он поймет, степень угрозы исходящий от вас, сразу устранит словно вирус. Мои опасения обоснованы историческими событиями. Чтобы не создавалось учеными, это всегда применялось против человечества. Доказательством этому служит и последняя война. Я преклоняюсь перед дальновидностью великого Николы Теслы. Он вовремя рассмотрел в своих изобретениях опасность грозившую человечеству и уничтожил все свои наработки. Думаете, он не мечтал о славе? Конечно, мечтал, и, тем не менее, сделал единственно правильный выбор. Мы не знаем чего ожидать от машин. Им чужды законы нравственности и человечности. Их интеллект - алгоритм. Что произойдет, если он даст сбой? Подумайте над моими словами пока еще не поздно!
-Прекрасно понимаю ваши опасения, Майк, в них есть доля истины, но я уверен, если они поймут, что мы не враги - наука в своем развитии ускорится в десятки раз. Разумные машины помогут выбраться из этого болота, в котором мы оказались. Роботам неведом страх, они не боятся боли, могут существовать без кислорода и воды, выдерживать экстремальные температуры - это идеальный работник...
-И машина для убийств. - Перебил Сандерса Крайтон.- Роботы, не понимающие значений слов и не имеющие сознания, не смогут заменить людей там, где нужно действовать не по шаблону, пусть даже и сложному. Нужно принимать все риски исходя из наихудшего развития событий, - настаивал на своем упертый старик.- Возможно, в ваших руках жизни всего человечества. Большая часть моей работы в течение прошлых лет была посвящена компьютерной организации сети, где допускают возможность выходящей из-под контроля системы. В компьютере подобное действие может искалечить машину, обрушит сеть или ее службы. Но в искусственном интеллекте упомянутые новейшие технологии несут с собой намного больший риск: риск вещественного ущерба в физическом мире. Этим машинам не потребуется громоздкое оборудование или редкое сырье, чтобы уничтожить человечество. Знаний одиночки хватит, чтобы их применить против своих создателей. Самосовершенствующийся искусственный интеллект в будущем может поработить или убить людей, если он этого захочет. Об этом говорил Амнон Иден, который полагал, что риски от разработки свободомыслящего и высокоинтеллектуального сознания очень велики, и, если не озаботиться вопросами контроля созданного интеллекта уже на начальном этапе развития, то завтра может просто не наступить. Отключите его пока не поздно...