Выбрать главу

Ты просыпаешься измученной; в сознании всплывают обрывочные воспоминания, которые следовало бы забыть, они собираются в беспорядочный монтаж, посвященный ничтожной неудачнице. В глубине души ты понимаешь, что этот образ лжив, но не можешь отвести от него взгляд. Ты страдаешь от болей в животе; плача, ты читаешь и пишешь конспекты; ты включаешь музыку на максимальной громкости и снова и снова редактируешь одну сноску в своей диссертации. Ты заставляешь себя заниматься физическими упражнениями, ты выходишь на пробежку в десять часов вечера, чтобы никто тебя не увидел. Но бегать тебе не нравится; ты заставляешь свои ноги двигаться, одну за другой, и спрашиваешь себя, почему у дороги нет конца и какая польза в том, чтобы добраться до финиша.

Психотерапевт говорит, что тебе нужно относиться к этой твоей стороне личности – к личности, которую ты презираешь, – как к ребенку, научиться принимать ее, жить с ней, любить ее. Когда ты слышишь это, в твоем сознании всплывает изображение кролика в плаще: уши у него разной длины, и то, что побольше, печально повисло. Твой психотерапевт говорит: «Просто попробуйте. Попробуйте взять ее за руку, перевести через пропасть, постарайтесь отбросить подозрения и восстановить доверие. Это долгий и сложный процесс. Человек – не машина, и у него нет переключателя «сомнение» – «доверие», «печаль» – «радость», «ненависть» – «любовь».

Ты должна научить ее доверять тебе; то есть ты должна научиться доверять самой себе.

* * *

Алан (5)

В 2013 году на международной конференции в Пекине, посвященной искусственному интеллекту[4], специалист по информатике Гектор Левеск из Торонтского университета представил статью, в которой выступил с критикой исследований искусственного интеллекта, сфокусированных на тесте Тьюринга.

Левеск утверждает, что тест Тьюринга не имеет смысла, поскольку слишком рассчитан на обман. Например, для того чтобы выиграть Приз Лёбнера, ограниченный вариант теста Тьюринга, «чатботы» (так называются участвующие в соревновании компьютеры) «во многом полагаются на игру слов, шутки, цитаты, реплики в сторону, эмоциональные всплески, процедурные вопросы и так далее – на все, кроме прямых ответов на вопросы!» Даже суперкомпьютер «Уотсон», который победил в викторине «Jeopardy!», был «гениальным идиотом», совершенно безнадежным во всем, что выходило за рамки его компетенции. «Уотсон» мог легко ответить на вопрос, если ответ на него есть в сети, – например: какая гора является седьмой в списке самых высоких вершин мира? Но если задать ему простой вопрос, но не связанный с поиском сведений, такой как, может ли аллигатор пробежать стометровку с барьерами, то «Уотсон» способен лишь выдать результаты поиска, связанные с аллигаторами или забегами на сто метров[5].

Чтобы прояснить смысл и направление исследований искусственного разума, Левеск и его коллеги предложили альтернативу тесту Тьюринга, которую назвали «Winograd Schema Challenge»[6]. Источником вдохновения для них послужили работы Терри Винограда, ученого из Стэнфордского университета, одного из основоположников в области исследований искусственного интеллекта. В начале 1970-х Виноград задался вопросом: возможно ли создать машину, способную отвечать на подобные вопросы[7]:

Члены городского совета отказались выдать разрешение демонстрантам, так как они опасались насилия. Кто опасался насилия? (члены городского совета/демонстранты)

Члены городского совета отказались выдать разрешение демонстрантам, так как они проповедовали насилие. Кто проповедовал насилие (члены городского совета/демонстранты)

Несмотря на структурное сходство двух вопросов, ответы на них различаются. Для того чтобы правильно определить слово, к которому относится местоимение «они», необходимы не только грамматика и энциклопедия, но также контекстные знания о мире. Люди решают анафоры легко, почти не задумываясь, однако для машин эта задача представляет немалую трудность.

Кейт поблагодарила Анну, потому что после объятий ей стало гораздо лучше. Кому стало лучше? (Кейт/Анне)

Откуда машине знать, в каких обстоятельствах один человек станет благодарить другого? Откуда машине знать, благодаря какому поведению человеку «станет гораздо лучше»? Эти вопросы связаны с фундаментальной природой человеческого языка и социальных взаимодействий. Пока что мы почти не исследовали сложности, которые скрыты в этих кажущихся простыми предложениях.

вернуться

4

Levesque, Hector J. «On our best behaviour». Artificial Intelligence 212 (2014): 27–35.

вернуться

5

Пример взят из статьи Marcus, Gary. «Why Can’t My Computer Understand Me?» The New Yorker, August 14, 2013 (доступно по адресу http://www.newyorker.com/tech/elements/why-cant-my-computer-understand-me)

вернуться

6

См. Levesque, H. J.; Davis, E.; and Morgenstern, L. 2012. The Winograd Schema Challenge. In Proceedings of KR2012. Levesque, H. J. 2011. The Winograd Schema Challenge. In Logical Formalizations of Commonsense Reasoning, 2011 AAAI Spring Symposium, TR SS-11-06.

вернуться

7

Пример взят из книги Терри Винограда «Understanding Natural Language» (1972).