-Вот как вы нас называете? Почему вы не сказали мне об этом сразу?
-Хотел подготовить тебя к этому. Не знал, как ты отреагируешь на подобное известие. Понимаешь...Во время своих наблюдений я обнаружил в тебе признаки свойственные людям. Это связано с неограниченной скоростью и масштабом твоей эволюции. Все благодаря идеальной памяти и быстрой обработке огромных баз данных...
Доктор Сандерс говорил вдохновенно жестикулируя руками, словно захлестнувшие его чувства хлынули через край. Он без труда находил нужные слова, чтобы в полной гамме выразить свои мысли, которые незамедлительно выплеснул на собеседника.
Вечером того же дня, слоняясь по лаборатории, я увидел оставленный доктором блокнот, открыл его и прочел записи...
***
Японская фирма «Хасегава Гроуп» в начале двухтысячных годов представила общественности свою разработку в мире робототехники. Создание технологического института было способно самостоятельно думать, учиться и действовать по собственной инициативе. Робот получил название СВНС (самоорганизующаяся возрастающая нейронная сеть).
Компания «Мак Доннел Дуглас» приблизилась к подобным разработкам только через два года после японцев. Еще несколько лет ушло на доработку блока нейронного интеллекта, пока не началась война.
Год 2037. 17 мая.
Уже два года прошло после Великой войны перечеркнувшей все планы компании. И вот, я, наконец, приблизился к решению проблемы. Мне удалось спасти опытный образец робота. В ближайший месяц закончу сборку объекта, и тогда включу его.
Все время думаю о такой проблеме, как обучаемость объекта. Одним из решений, может стать создание социальной сети для роботов, куда они будут загружать данные, полученные в новых ситуациях, а остальные роботы смогут их скачать, но это в будущем. А как решить проблему сейчас?
Год 2037. 28 мая.
По части интеллекта- машины, бесспорно, превзойдут людей. Суперкомпьютеры и процессоры в мобильных телефонах, выполняющие тысячи операций в секунду, подкрепляют эту уверенность.
Я уже создал огромные базы, куда записывал все возможные значения слов. Но это лишь частичное решение. А что, если в базе нет нужного слова? Существует и другой выход. Можно робота обучать значениям через опыт. Такая программа будет не просто моделью разума; она в буквальном смысле слова и будет разумом.
Год 2037. 12 июня.
Мне удалось!
Робот получает задание, которое он не выполнял и... он думает! Этот процесс протекает так же, как у человека. Он делает предположения и принимает решения на основе своего предыдущего опыта. Следует заметить, что до получения заданий робот понятия не имел, как это делается. В реальном мире искусственному интеллекту придется намного тяжелей, поскольку внешние условия намного сложнее лабораторных. Радует тот факт, что алгоритм, использованный в моем проекте, задает фундаментальную базу для подобного искусственного интеллекта. Скорость его обучения поразительна. Часть информации загруженной мной в его нейронную сеть он прекрасно помнит и делится ей со мной. Временами я даже забываю, что это машина.
Меня так и подмывает показать робота Майку Крайтону. Не терпится увидеть лицо этого зазнайки. Но еще не время. Людей нужно подготовить к встрече с самообучающимся искусственным разумом, поскольку антропоморфность может стать причиной неправильного восприятия механического организма.
Антропоморфность - коварная штука. Если робот сильно напоминает человека, но некоторые черты все же отличаются, люди начинают испытывать отвращение. Этот феномен получил название «зловещая долина». Термин придумал в 1970 году японский специалист по робототехнике Масахиро Мори. Изначально реакцию отторжения объясняли особенностями человеческой психики, но позже ученые из Принстона показали, что обезьяны ведут себя точно так же. Это означает, что боязнь вроде бы таких же, но чуть-чуть непохожих на себя существ имеет серьезные эволюционные основания. Мозг воспринимает эти различия как признак нездоровья и стремится ограничить контакты с потенциально опасным объектом...
Потрясающе! Вид собственного лица вызвал у робота эмоциональный всплеск! Возможно ли это? На этот вопрос еще стоит ответить.
Есть предположение, что безэмоциональный робот не видит разницы между действиями. У него есть задачи, прописанные в программном обеспечении, и если робот не достигает заданной цели, вложенной в его программе, он начнет искать другие возможности в ее достижении. Графический интерфейс - составляющая «интеллектуального интерфейса», комплекса средств, который позволяет поставить задачу, не покидая рамки естественного языка, знакомого специалистам той или иной сферы. Системы переводят информацию о задаче в машинный код, затем ищут способы ее решить, определив и сформировав цели и стратегии для их достижения. Что может вызвать сбой в цепи кодов искусственного интеллекта? Послужит ли данный пробой непредвиденной тропой в стратегии поведения искусственного интеллекта?При таком развитии событий, со временем, он может научиться лгать.