Доброволец между тем был уже у стола. Коджима призвал к тишине.
— Начнем, — сказал он, повернулся к геймеру-добровольцу и показал на непонятного назначения черные бруски. — Выбирайте один из них.
Геймер послушно сдвинул из один из брусков. Коджима и поднял его, посмотрел с нижней стороны, удовлетворительно кивнул и казал ее присутствующим. На нижней стороне бруска оказался дисплей. На дисплее синими буквами светилась надпись: «human». Затем вернул на место.
— Теперь Вы, уважаемая Глория, — сказал Коджима, обращаясь к буфетчице. — Выберите один из брусков.
Глория поколебавшись секунду: выбрала так же.
Со стороны казалось что она колеблется перед выбором, но те кто уже догадались что перед ним андроид а не человек. Уже понимали, что это имитация. Нарочная имитация человеческого выбора. Сам комп за ничтожные доли секунду в соответствии со своей программой совершить выбор из совершенно одинаковых предметов.
Коджима показал аудитории предмет выбранный андроидом.
Голубые светодиоды ярко высветили: «computer».
Зал ахнул.
— Она что? Андроид?
— Вот это номер?
— А как он не тот брусок выбрала?
Коджима снова призвал к тишине, отправил геймера на место. А также отослал Глорию.
— Идите на ваше рабочее место, Глория. Спасибо что помогли.
Глория кивнула и попрощавшись двинулась к двери. Хохмачи не упустили конечно ее без сопровождения:
— Я к тебе сегодня вечером зайду, — сказал шутник.
Глория открыла дверь и показала ему язык, перед тем как выйти.
Зал засмеялся. А Коджима сопроводил ее странным взглядом и комментарием-вопросом к самому себе:
— Весьма и весьма продвинутые алгоритмы. Что же будет через пятьдесят лет?
Я примерно знал что будет. Если вся эта история с разумной игрой. Большой бада-бум, как в одном старом фильме говорили.
— Фокус с брусками объясните? — спросил один из игроков.
Коджимы вышел из минутной задумчивости.
— Конечно. Весь смысл этой небольшой лекции заключается в ней. Вы слышали когда-нибудь о «буридановом осле»?
Зал ответил молчанием, ожидая продолжения. Коджима не заставил себя ждать:
— Asinus Buridani inter duo prata, буриданов осел между двух лужаек. В четырнадцатом веке, уважаемые игроки, один из французских философов-схоластического толка Жан Буридан сформулировал интересную задачу. Что будет, если у выбора «между и между» не будет критериев? Допустим перед ослом положат две абсолютно одинаковые копны сена. На одинаковом расстоянии, абсолютно идентичные: в размере, в цвете, в запахе… Во всем. Как осел сделает выбор с какой копны начать?
Геймеры продолжали хранить молчание и Коджима ответил на вопрос сам:
— Ничего не будет. Осел выберет одну из куч. Быстро, без колебаний. Несмотря на то, что сам философ утверждал, что осел не способный сделать выбор просто умрет от голода. В этом предположении есть сильная логика. Но в реальности оно неверно. Возможно сам господин Буридан никогда не проверял на опыте свое утверждение. Или может быть он просто не мог поставить осла в абсолютно одинаковые условия. Всегда одна из куч сена будет: либо чуть больше, либо чуть зеленее или даже чуть лучше пахнуть на вкус осла. Идеального в мире ничего нет. Поди разберись. Отсюда мы приходим к ключевому выбору. Если дать машине абсолютно одинаковые предметы, какой она выберет?
— Никакой. Для машины нужна программа для выбора. Генератор случайности выбора.
— Вот именно, Андреа-сан! Жан Буридан сам того не зная описывал действия компьютера в такой ситуации, а не высших млекопитающих. Компьютеру в такой ситуации нужна программа. Генератор случайности, который будет запрограммирован программистами. И несмотря ни на что, это не настоящая случайность. А только его имитация. Компьютер умножает, делит, суммирует вероятности. Может даже использовать внешние сигналы — температуру на улице, чтобы выдать ее за задуманное им случайное число. И даже совершить над ним математические операции вплоть до возведения в куб, чтобы вы не заподозрили, что это число не случайное. Но все равно — это всего лишь программная случайность. Псевдослучайность. И разработчики всегда знают о ней. И мало того могут предсказать ее. Поэтому с помощью программистов разрабатывавших ПО для Глории, я знал что она выберет. Потому что узнал как она делает выбор между одинаковым объектами. Причем предсказывать ее поведение в этом случае можно до бесконечности. Она будет выбирать другой брусок, но всегда тот на котором остановилось вычисление предыдущего блока — будет началом отсчета. Глория использует считалку из десяти слов. И с каждым предложением такого выбора, она начинает сначала прибавляя единицу к предыдущему блоку. Потом двойку, тройку и так до десяти. Поскольку других критериев нет — бруски одинаковы, она всегда пользуется этим простым алгоритмом случайности, который не зная его, трудно вычислить. Тем более, если вы будете ее слишком доставать, компьютерный мозг может отказаться вообще играть в вашу игру, поскольку реальной персоне такое тоже быстро надоело бы. И это учитывается системой.