Выбрать главу

Но — можем возразить мы — это значит, что случайные числа содержат больше информации, чем упорядоченные. И это действительно так. Информационное содержание выражается тем, насколько сложной является передача сообщения. Более длинный разговор по телефону потребуется для описания результата подбрасывания 12 раз, чем числа 3/7, так как случайное — это то, что не может быть сказано короче.

Информация ассоциируется с энтропией — мерой термодинамического беспорядка. Макросостояние «12 бросков монеты» соотносится с большим количеством микросостояний (бинарные цифры), чем макросостояние «3/7». В 12 бросках содержится больше информации.

Информация — это мера случайности, так как случайность — это мера беспорядка: того, что сложно описать.

Информация — это мера того, какая неожиданность нас ожидает: в беспорядке больше неожиданностей, чем в порядке. На самом деле именно это мы и подразумеваем под порядком: нечто, что не может нас удивить, так как оно упорядочено.

Странность определения информации, данного Шенноном, становится теперь более постижимой: информация может быть определена только тогда, когда мы знаем ее содержание, когда мы можем сказать, о каких макросостояниях и микросостояниях мы ведем речь. Информация может быть определена только тогда, когда мы объясняем, что мы имеем в виду под порядком.

Теорема Геделя говорит нам о том, что мы никогда не сможем знать, есть ли порядок в случайности — порядок, который мы просто пока не увидели. Чтобы установить, сколько информации содержится в беспорядке, нам сначала необходимо знать, сколько порядка уже обнаружено в этом беспорядке. Мы не можем определить информацию до тех пор, пока мы не узнаем, какой порядок обнаружил получатель информации. Информацию нельзя установить без знания ее содержания. И не потому, что с нашим понятием информации что-то не так, а потому, что понятие порядка и случайности обязательно включает в себя элемент субъективности.

Каждый из этих трех джентльменов создал теорию алгоритмической информации независимо друг от друга. Андрей Холмогоров, один из величайших математиков столетия, работал в Москве; Реймонд Соломонофф — в Кембридже, Массачусетс, а Грегори Чаитин — в Нью-Йорке. Грегори Чаитину удалось дальше всего продвинуться в этой теории. В 60-е годы прошлого века, когда родилась эта теория, Чаитин учился в Городском университете Нью-Йорка. В настоящее время он работает в IВМ Laboratories в Йорктаун Хайс около Нью-Йорка (там, где работают Рольф Ландауэр и Чарльз Беннетт).

Чаитин доказал, что открытия Геделя естественны и легки для понимания: Гедель показал, что любая формальная система, состоящая из конечной серии постулатов или аксиом, всегда будет содержать неполные утверждения. Подобную систему невозможно полностью изучить изнутри. Мы никогда не сможем ее полностью постичь, если ограничим себя формальными методами доказательства.

«Теорему Геделя можно продемонстрировать с помощью аргументов, которые будут иметь информационно-теоретический привкус, — пишет Чаитин. — В подобном подходе можно утверждать, что если теорема содержит больше информации, чем данный набор аксиом, то ее невозможно вывести из этих аксиом. Это составляет контраст с традиционным доказательством, которое базируется на парадоксе лжеца. Эта новая точка зрения предполагает, что феномен неполноты, открытый Геделем, является скорее естественным и широко распространенным, нежели необычным и патологическим».

Но Чаитин также вывел свою теорему как продолжение теоремы Геделя. Он начал с задачи остановки Тьюринга — можем ли мы знать, когда остановится компьютер, решив задачу? Ответ таков: мы узнаем только тогда, когда он остановится.

Чаитин задался вопросом: какова была вероятность, что машина Тьюринга, которой дана в высшей степени случайная программа, остановится, так как она нашла решение? Он доказал, что возможность эта не обнаруживаема. Мы не можем ее подсчитать. Это число под названием Омега. Оно находится где-то между 0 и 1. Но мы никогда не сможем его узнать.

Чаитин доказал: это значит, что сама теория целых чисел должна быть пронизана случайностями. Теорию чисел нельзя описать, не вводя в картину случайные элементы.

В 1988 году британский математик Иан Стюарт, которого можно с уверенностью считать самым знающим комментатором современной математической науки, писал в журнале «Nature»: «Для основ математики и даже до философии применительно к науке это столетие оказалось столетием разбитых иллюзий. Одно удобное предположение за другим разлетались вдребезги в лицо математикам. Предположение о том, что формальная структура арифметики является точной и постоянной, оказалось бомбой замедленного действия — а Чаитин только привел в действие детонатор».

Позже в том же году Чаитин написал в «Scientific American»: «Какое влияние на математику могли оказать неполнота теоремы Геделя, проблема остановки Тьюринга и моя собственная работа? Смысл в том, что большинство математиков предпочитают не обращать внимания на эти результаты. Конечно, они согласны с принципом того, что любой конечный набор аксиом не является полным — но на практике они исключают этот факт, как не оказывающий непосредственного влияния на их работу. К сожалению, однако, иногда он все же влияет. Несмотря на то, что оригинальная теорема Геделя, судя по всему, применима только к необычным математическим утверждениям, которые не представляют особого практического интереса, алгоритмическая информационная теория показала, что неполнота и случайность являются естественными и повсеместно распространенными».

Математика, судя по всему, слишком важна, чтобы оставить ее только математикам.

Чаитин согласился бы с этим. «Тот факт, что многие математические задачи оставались нерешенными сотни и даже тысячи лет, только подтверждает мое утверждение.

Математики стойко предполагают, что невозможность решения этих проблем заключается только в них самих — но не может ли быть так, что проблема заключается не только в неполноте их аксиом?» Он добавляет: «Это может казаться большинству математиков нелепым предположением — но для физика и биолога оно не будет столь уж абсурдным».

«Это вопрос, который поистине достоин Уотергейта: что знает демон Максвелла — и когда он это знает?» — с большим энтузиазмом сказал Войцех Зурек в своем вступительном обращении на семинаре по степени интеграции, энтропии и информационной физике в Институте Санта Фе в 1990 году.

Идея Зурека была довольно хороша, как он объяснил на первой встрече группы двумя годами ранее. Его обращение называлось «Алгоритмический информационный контент, тезис Черча-Тьюринга, физическая энтропия и демон Максвелла». Его идея соединяла воедино эти до того времени несоединимые области физики и математики.

В числе слушателей были Ландауэр и Беннетт. Зурек процитировал их решение задачи демона Максвелла — решение, которое указывало, что проблемой демона было забывание того, что он узнал: как только он узнал, где находятся все молекулы в контейнере и как они движутся. В направлении самых быстрых из них в одну камеру, он, конечно, преуспел — но теперь ему придется очень много забыть. Проблема заключалась не в том, как думали Сцилард и позже Бриллоун, чтобы узнать, где находятся молекулы. Проблема заключалась в том знании, которое приобретает демон. Ландауэр доказал: чтобы избавиться от этой информации, придется платить; Беннетт доказал, что цена этого искупает второй закон термодинамики. Демон не сможет обеспечить энергию для вечного двигателя.

Но затем Зуреку пришла идея: а что, если демон настолько умен, что сможет сжимать свое знание? Что, если он сможет описать движение молекул в очень краткой форме, так что очистка его памяти не будет обходиться слишком дорого? Если бы он мог помнить, к примеру, что все более быстрые молекулы имеют определенное расположение (на дне контейнера), это описание бы не требовало слишком большого количества бит — а затем он мог бы это забыть? Смог ли бы этот интеллектуальный демон создать вечный двигатель и нарушить наше видение мира?