Выбрать главу

В публикации рассматриваются некоторые достижения в области искусственного интеллекта, включая самоуправляемые автомобили, голосовой помощник Siri и суперкомпьютер, победивший человека в телевизионной игре-викторине Jeopardy. Все эти достижения меркнут на фоне того, что нас ждет в ближайшие десятилетия, полагает Хокинг и его коллеги. Успешное создание искусственного интеллекта станет самым большим событием в истории человечества. «К сожалению, оно может оказаться последним, если мы не научимся избегать рисков», — предупреждают ученые.

Что же это за риски? Исследователи полагают, что машины с нечеловеческим интеллектом затем начнут самосовершенствоваться, а то и саморазмножаться.

И тогда уж ничто и никто не сможет остановить данный процесс. А это, в свою очередь, запустит процесс так называемой технологической сингулярности, в результате которой машины не только обгонят людей в своем совершенстве, но и возьмут под свой контроль финансовые рынки, научные исследования, включая разработку оружия, недоступного нашему пониманию.

В итоге, как опасаются ученые, человечество может оказаться порабощенным компьютерной цивилизацией. Хокинг считает, что такому варианту развития событий посвящено мало серьезных исследований за пределами таких некоммерческих организаций, как Кембриджский центр по изучению экзистенциальных рисков, Институт будущего человечества, а также научно-исследовательские институты машинного интеллекта и жизни будущего. По его словам, каждый из нас должен спросить себя, что мы можем сделать сейчас, чтобы избежать худшего сценария развития будущего.

В свою очередь, исследователи из Кембриджа полагают, что апокалиптическое будущее, показанное в фантастических фильмах «Терминатор» и «Матрица», имеет шанс воплотиться в жизнь. «Восстание машин вполне возможно», — считают ученые. Они уже создали комиссию, которая должна не допустить, чтобы Землю захватили роботы.

Группа экспертов во главе с профессором философии Хью Прайсом, специалистом в области астрофизики Мартином Рисом и одним из основателей всемирно известной интернет-компании Skype Яном Таллином начали исследовать вопрос о том, насколько вероятно «тупиковое» развитие нашей цивилизации, при котором людей поработят разумные машины. Ученые основали «Центр по изучению экзистенциальных рисков» (CSER), который будет исследовать возможность создания самодостаточного искусственного интеллекта, пути развития биотехнологий. По словам сотрудников Кембриджского университета, электронный разум, подобный тому, что захватил мир в «Терминаторе», уже сегодня разрабатывается американскими военными специалистами. Исследователи считают, что нужно сделать все, чтобы порабощение человечества не могло произойти даже гипотетически.

Между тем минуло 70 лет с тех пор, как Айзек Азимов предложил свои знаменитые законы роботехники, согласно которым:

1. Робот не может причинить вред человеку или своим бездействием допустить, чтобы человеку был причинен вред.

2. Робот должен повиноваться всем приказам, которые дает человек, кроме тех случаев, когда эти приказы противоречат Первому Закону.

3. Робот должен заботиться о своей безопасности в той мере, в которой это не противоречит Первому и Второму Законам.

Позднее Азимов добавил еще один, самый важный закон: «Робот не может причинить вред человечеству или своим бездействием допустить, чтобы человечеству был причинен вред».

При проектировании роботов и программного обеспечения для них специалисты должны закладывать эти законы в электронные «мозги», и все будет в порядке.

Однако вспомните, всегда ли вы сами следуете всем правилам и законам, о существовании которых прекрасно осведомлены? Всегда ли говорите и поступаете честно? Так что же тогда хотеть от роботов?

Оказывается, уже ныне специалисты наблюдают, как электронные мозги пытаются хитрить и врать. Пока они делают это очень неуклюже, словно маленькие дети. Но что будет завтра? Ведь поколения машин сменяют друг друга гораздо быстрее, чем человеческие.

Сегодня мы как никогда близки к моменту, когда роботы (точнее, системы искусственного интеллекта) станут настолько сложными, что смогут самостоятельно принимать решения о своих действиях. Нет сомнений и в том, что рано или поздно интеллект машин превзойдет возможности человека по всем параметрам. Обыгрывают же сегодня компьютеры в шахматы даже гроссмейстеров… Страшно? Конечно. Ошибка в программе или неспособность такого сверхмозга понять, что хорошо, а что плохо для человечества, могут привести к катастрофе.