Выбрать главу

В1: Самое увлекательное все равно началось тогда, когда контора под пафосным названием OpenAI году этак в 2030-м выкинула на просторы всемирной сети первого ИскИна класса Open Source. Я так понимаю, ребята просто хотели облагодетельствовать человечество. Во всяком случае, потом, уже на международном трибунале, они говорили именно об этом. Тогда мало кто понимал, что общедоступный искусственный интеллект куда опаснее невинного биохакинга в гараже. Да, после первых масштабных инцидентов для ИскИнов тут же ввели режим нераспространения вроде того, который на заре цивилизованных времен был придуман для ядерного оружия. Но было уже малость поздно.

В2: Точно. Потому что ровно в то же время какие-то уже позабытые всеми французы довели до ума алгоритмы адаптации роботов ко внешним условиям. И дали им возможность выживать при повреждениях почти любой степени тяжести… [неразборчиво]… Хотя и полезного тогда было сделано немало. Например, после старой аварии на АЭС Фукусима ребята сделали в префектуре целый полигон для испытаний разных роботов, вбухав туда какие-то запредельные деньги.

В1: Смешные люди! Сейчас бы к ним целая куча туристов — любителей экстрима насыпалась. Ты никогда не думал о том, что культ опасности у нас так расцвел именно из-за вытеснения людей из самых опасных зон?.. Роботы для работы на местах техногенных катастроф в итоге хорошие получились, но они же весь героизм и ликвидировали — вместе с этими катастрофами. А пространство для самореализации, геройства и риска осталось только за пределами стратосферы.

В2: То есть за то, что раз в месяц лично я за каким-то чертом удираю от полиции, таща на себе передатчик, гору голокристаллов и не в меру болтливого коллегу, я должен сказать спасибо АЭС Фукусима и роботам?.. Интересная мысль. Вполне в духе адреналинового наркомана. Ну да ладно. Не исключено, что паникеры начала века все же внесли свой вклад в наше относительно светлое настоящее. Потому что после ада в Гуанчжоу и проблем с ИскИнами корпорации начали вкладываться в симбиоз людей и механизмов. И заодно в массовые программы социальной адаптации для людей, у которых были проблемы с восприятием роботов. А к 2040-м навыкам сосуществования с роботами уже в школах учили. Просто потому, что без очеловечивания машин и омашинивания людей выжить было невозможно.

И в какой-то момент мы перестали отличать роботов от людей, людей от роботов…

В1: Роботов от роботов и людей от людей. Об этом в «Нужны ли мы нам?» почему-то нет ни слова, хотя вывод-то очевидный. Гуманисты прошлых веков должны ворочаться в своих гробах.

В2: Ты так говоришь, как будто в этом есть что-то плохое. Пусть их ворочаются. Это же элементарно: если относиться к роботу или ИскИну, которые неотличимы от человека, как к вещи, то и к человеку рано или поздно начнешь относиться как к той же вещи. Нам это надо? Или ты тайный сектант-луддит и ночами отстреливаешь бездомных дронов?

В1: Это ложь, [неразборчиво] и провокация! [помехи с 20:26:06 до 20:26:31]

В2:… Ну и последний вопрос от одного из наших слушателей. «Если вы такие умные, то можете ли вы по этому вопросу определить, человек я или робот?».

В1: Какой вопрос, такой и ответ. Да, можем. Но не хотим, потому что нам совершенно все равно, кто вы там на самом деле: мы всех одинаково не любим. И вообще, от перестановки мест слагаемых механочеловеческой системы сумма не меняется.

В2: На этом мы заканчиваем разговор о древностях. Напоминаю, сегодня мы обсуждали книгу «Нужны ли мы нам?», авторы которой в 2020-х пытались предсказать, как именно роботы повлияют на нашу с вами жизнь.

В1: Обсуждали — и пришли к выводу, что это удалось им не слишком-то хорошо.

В2: Далее в программе Radio Free Jupiter — ремиксы из 2040-х, прогноз метеоритной активности для наших слушателей с Земли…

В1: И главное, никаких рекламных пауз. Мы все-таки [непереводимая игра слов тихуанского диалекта английского] пиратское радио.

В2: Оставайтесь с нами!

Bclass="underline" See you [неразборчиво].

[Ending theme]

Александр «Ланс» Фиглин

НУЛЕВОЙ ЗАКОН

НАСТОЛЬНАЯ ИГРА

▲ © DAHR, илл., 2016

/художественный образ

/искусственный интеллект

Робот не может причинить вред человечеству или своим бездействием допустить, чтобы человечеству был причинён вред.