Выбрать главу

Более того, ИИ даже продемонстрировал способность адаптировать свои ответы на основе заданной "персоны", отражающей различные уровни дохода и поведение покупателей в прошлом. Если вы скажете ему вести себя как определенный человек, он так и сделает. Студенты на моих занятиях по предпринимательству проводят "интервью" с ИИ по поводу их потенциальных продуктов, прежде чем пообщаться с реальным человеком. Хотя я бы не стал использовать этот метод в качестве замены более традиционных маркетинговых исследований, он хорошо подходит как для практики, так и для получения первоначальных сведений, которые можно будет использовать при общении с реальными потенциальными покупателями.

Но ИИ не просто ведет себя как потребитель; он также приходит к моральным выводам, схожим с нашими предубеждениями. Например, профессор Массачусетского технологического института Джон Хортон заставил ИИ играть в "Игру диктатора" ( ), распространенный экономический эксперимент, и обнаружил, что может заставить ИИ действовать так же, как и человек. В игре участвуют два игрока, один из которых - "диктатор". Диктатору дается сумма денег, и он должен решить, сколько отдать второму игроку. В человеческой среде игра исследует такие человеческие нормы, как справедливость и альтруизм. В версии Хортона для искусственного интеллекта ИИ были даны конкретные инструкции по выбору приоритетов: справедливость, эффективность или корысть. При указании на справедливость он решил разделить деньги поровну. Если приоритетом была эффективность, ИИ выбирал результат, максимизирующий общую сумму вознаграждения. Если же во главу угла ставился собственный интерес, он выделял большую часть средств себе. Хотя у него нет собственной морали, он может интерпретировать наши моральные инструкции. Когда не было дано никаких конкретных указаний, ИИ по умолчанию выбирал эффективные результаты, и это поведение можно интерпретировать как своего рода встроенную рациональность или отражение его обучения.

Старшеклассник Габриэль Абрамс попросил ИИ смоделировать различных известных литературных персонажей из истории и заставил их сыграть друг с другом в игру "Диктатор". Он обнаружил, что, по крайней мере, с точки зрения ИИ, наши литературные герои с течением времени становятся все более щедрыми: " Шекспировские персонажи XVII века принимают заметно более эгоистичные решения, чем герои Диккенса и Достоевского XIX века, а затем Хемингуэя и Джойса XX века и Исигуро и Ферранте XXI века". Конечно, этот проект - всего лишь забавное упражнение, и легко преувеличить ценность подобных экспериментов в целом. Суть в том, что ИИ может быстро и легко принимать различные персоны, что подчеркивает важность разработчика и пользователя для этих моделей.

Эти экономические эксперименты, а также другие исследования, посвященные реакции рынка, моральным суждениям и теории игр, демонстрируют поразительное человекоподобное поведение моделей ИИ. Они не только обрабатывают и анализируют данные, но и, похоже, выносят тонкие суждения, разбирают сложные концепции и адаптируют свои ответы в зависимости от полученной информации. Переход от машин, вычисляющих числа, к моделям ИИ, которые действуют способами, до жути напоминающими человеческое поведение, является одновременно увлекательным и сложным и позволяет достичь давней цели в области компьютерных наук.

Имитационные игры

Рассмотрим самый старый и самый известный тест компьютерного интеллекта: тест Тьюринга. Он был предложен Аланом Тьюрингом, блестящим математиком и ученым-компьютерщиком, которого многие считают отцом современной вычислительной техники. Тьюринг был увлечен вопросом: "Могут ли машины думать? Он понял, что этот вопрос слишком расплывчат и субъективен, чтобы на него можно было ответить научно, и придумал более конкретный и практичный тест: Могут ли машины имитировать человеческий интеллект?

В своей работе 1950 года "Вычислительная техника и интеллект" Тьюринг описал игру, которую он назвал "Имитация игры", в которой человек-дознаватель общался с двумя скрытыми игроками: человеком и машиной. Задача дознавателя заключалась в том, чтобы определить, кто из игроков кто, основываясь на их ответах на вопросы. Задача машины заключалась в том, чтобы обмануть допрашивающего и заставить его принять себя за человека. Тьюринг предсказал, что к 2000 году машины смогут проходить тест с 30-процентной вероятностью успеха.

Этот тест нельзя назвать потрясающим по целому ряду причин. Основная критика заключается в том, что он ограничивается лингвистическим поведением и упускает из виду многие другие аспекты человеческого интеллекта, такие как эмоциональный интеллект, креативность и физическое взаимодействие с миром. Кроме того, он фокусируется на обмане и имитации, но человеческий интеллект гораздо сложнее и нюансированнее, чем просто способность имитировать или обманывать. Тем не менее, несмотря на эти ограничения, тест Тьюринга оказался достаточно хорош. Он представлял собой сложную задачу, прежде всего потому, что человеческий разговор по своей природе богат тонкостями. Таким образом, тест Тьюринга стал яркой линией, разграничивающей сферы человеческого и машинного интеллекта.

Тест Тьюринга вызвал большой интерес и споры среди ученых, философов и общественности. Он также вдохновил множество попыток создать машины, которые могли бы пройти тест или продемонстрировать некоторые аспекты человеческого интеллекта. Одним из самых ранних и наиболее влиятельных примеров была ELIZA, компьютерная программа, созданная Джозефом Вейценбаумом в Массачусетском технологическом институте в 1966 году. ELIZA имитировала психотерапевта, который отвечал на вводимые пользователем данные простыми вопросами и размышлениями. Например, если пользователь набирал "Мне сегодня грустно", ELIZA отвечала: "Почему вы говорите, что вам сегодня грустно?". ELIZA использовала простые правила подбора и подстановки шаблонов для создания своих ответов. Она не понимала ни смысла, ни контекста разговора, но многие пользователи были впечатлены и даже одурачены очевидной эмпатией и проницательностью ELIZA. Некоторые даже рассказывали ELIZA о своих личных проблемах и секретах, как будто разговаривали с настоящим психотерапевтом. ELIZA показала, что создать иллюзию интеллекта можно с помощью простых трюков и использования человеческой склонности проецировать смысл и эмоции на машины.

ELIZA породила подражателей, например PARRY, программу, созданную психиатром и компьютерщиком из Стэнфорда Кеннетом Колби, которая моделировала пациента с параноидальной шизофренией. PARRY использовала более сложную модель обработки естественного языка, чем ELIZA, включающую эмоции, убеждения, мотивы и память. Кроме того, он обладал более реалистичной личностью, чем ELIZA, с устойчивыми чертами характера и мнениями. PARRY удалось обмануть некоторых психиатров, которые оценивали его стенограммы вместе с записями реальных пациентов. В 1973 году ПАРРИ общался с ЭЛИЗОЙ через раннюю форму Интернета, в ходе которого они обменивались нелепыми замечаниями, выявлявшими их ограниченность.

Добрый вечер. Расскажите мне о своих проблемах. Пожалуйста, завершайте ввод точкой или вопросительным знаком.

ПАРРИ: Люди иногда действуют мне на нервы.

ЭЛИЗА: Я не уверена, что полностью вас понимаю.

Вам следует быть внимательнее.

Полагаю, вам следует быть внимательнее.

Вы имеете право на собственное мнение.

С чего вы взяли, что я имею право на собственное мнение?

Меня напрягает просто находиться рядом с людьми в целом.

Пожалуйста, продолжайте.

В этих ранних моделях можно увидеть определенную тему. Если вы не ожидали, что будете общаться с компьютером, вас могли одурачить эти ранние машины (жизнь в 1970-х годах, конечно, помогла). В противном случае вероятность того, что вы будете впечатлены, была гораздо меньше.

В 2001 году в Санкт-Петербурге трое программистов, Владимир Веселов, Евгений Демченко и Сергей Уласен, разработали, пожалуй, первый чат-бот, претендующий на прохождение теста Тьюринга. Их творение выдавало себя за тринадцатилетнего мальчика из Украины по имени Евгений Густман. Он любил обсуждать свою морскую свинку, своего отца-гинеколога и свою любовь к гоночным играм. Он шутил, задавал вопросы и иногда коверкал грамматику. Чатбот был изображен тринадцатилетним мальчиком не случайно: разработчики хотели создать правдоподобного персонажа, который мог бы простить тем, кто с ним общался, его грамматические ошибки и недостаток общих знаний.

Юджин Густман участвовал во многих соревнованиях по тесту Тьюринга, пока в 2014 году на конкурсе, посвященном шестидесятилетию со дня смерти Тьюринга, 33 процента судей после короткой пятиминутной беседы не решили, что Юджин Густман - человек. Технически Густман прошел тест Тьюринга, но большинство исследователей считали иначе. Они утверждали, что Густман использовал лазейки в правилах теста, включая причуды личности, плохой английский и юмор, в попытке ввести пользователей в заблуждение относительно его нечеловеческих наклонностей и отсутствия реального интеллекта. То, что чат длился всего пять минут, тоже явно помогло.