Ближе к нашему времени мы встретимся с Артуром Сэмюэлом из IBM, который в 1952 г. создал одну из первых компьютерных программ для игры в шашки, а в 1955 г. – программу, которая научилась играть в эту игру без посторонней помощи. Сегодня термином «искусственный интеллект» часто обозначают системы, созданные для обучения, решения проблем и взаимодействия с людьми посредством обработки естественного языка. Умные помощники, такие как Алекса от Amazon, Сири от Apple и Кортана от Microsoft, обладают некоторыми возможностями ИИ.
В этой книге мы также рассмотрим непростые этические вопросы, связанные с использованием ИИ, и даже следующую проблему: как поместить сложные системы ИИ – если они станут слишком разумными и опасными – в герметичные ящики, чтобы изолировать их от внешнего мира? Конечно, границы и масштабы ИИ со временем меняются, и некоторые специалисты предлагают более общие определения, под которые подпадает целый ряд технологий, помогающих людям выполнять мыслительные операции. Поэтому, чтобы шире осветить историю ИИ, я включил в книгу несколько машин и механизмов, которые помогают решать задачи, требующие умственных усилий и подсчетов. Среди таких устройств – счеты, Антикитерский механизм (125 до н. э.), ЭНИАК (1946) и другие изобретения. В конце концов, без этих простейших технологий у нас не было бы современных шахматных программ и систем управления транспортом.
Читая эту книгу, помните: даже если какие-то гипотезы из прошлого или предсказания по поводу искусственных существ кажутся нам неправдоподобными, любая давняя идея внезапно может воплотиться в жизнь, если для этого найдется достаточно быстрый и совершенный компьютер. Наши технологические прогнозы – и даже наши легенды – по меньшей мере представляют собой увлекательную картину познания и творчества и показывают, как мы проникаем в разные культуры и эпохи, чтобы понять друг друга и выяснить, что ценно и сакрально для нашего общества. Но, отдавая дань человеческим воображению и изобретательности, крайне важно задумываться о нежелательных последствиях, в том числе о потенциальной опасности ИИ. В 2014 г. физик-теоретик Стивен Хокинг сказал в интервью Би-би-си: «Развитие полноценного искусственного разума может положить конец человеческой расе… Этот разум возьмет инициативу на себя и станет сам себя совершенствовать со все возрастающей скоростью». Иными словами, существует вероятность, что объекты с ИИ станут настолько разумными и умелыми, что, постоянно улучшая себя, в конце концов создадут некий сверхразум, потенциально чрезвычайно опасный для человечества. Этот сценарий стремительного технологического роста, иногда называемый технологической сингулярностью, может привести к невообразимым изменениям в цивилизации, обществе и жизни людей.
Таким образом, несмотря на многочисленные потенциальные преимущества ИИ – беспилотные автомобили, эффективные бизнес-процессы и даже помощь роботов-компаньонов в самых разных делах, – необходимо проявлять особую осторожность при разработке автономных комплексов вооружения и не слишком полагаться на технологии ИИ с порой непостижимыми механизмами. Например, исследования показывают, что некоторые системы распознавания образов на основе ИИ (нейросети) можно легко «обмануть» и заставить ошибочно идентифицировать животных как винтовки или принять самолет за собаку. Для этого достаточно немного изменить изображения таким образом, что люди даже ничего не заподозрят. Если террористу удастся сделать торговый центр или больницу похожими на военную цель для беспилотника, последствия могут быть ужасными. С другой стороны, вполне возможно, что боевые машины с настроенными датчиками и заданными этическими правилами могли бы снизить число жертв среди мирного населения. Чтобы потенциальная опасность ИИ-устройств не перечеркивала их ценные преимущества, в этой сфере необходимо создать продуманную нормативную базу.
Мы все больше полагаемся на ИИ с его многочисленными сложными нейросетями глубокого обучения, и одновременно с этим развивается одна интересная область: разработка систем ИИ, которые смогут объяснить человеку, каким образом они пришли к тому или иному решению. Однако, заставив ИИ объяснять самого себя, мы тем самым ограничим его возможности – по крайней мере, в некоторых случаях. Дело в том, что многие из этих систем способны создавать гораздо более сложные модели реальности, чем люди могут себе представить. Эксперт по ИИ Дэвид Ганнинг даже предполагает, что самая высокопроизводительная система окажется и самой труднообъяснимой.