Что ж, самое время вспомнить работы Бориса Борисовича Кадомцева [Выдающийся советский физик, академик АН СССР. Возглавлял Институт ядерного синтеза Российского научного центра Курчатовский институт с 1973 по 1998 г., был главным редактором журнала "Успехи Физических Наук"], посвященные, в числе прочего, анализу именно такого рода информационных объектов [В частности, эту: Б. Б. Кадомцев Динамика и информация, 2-я редакция. - М.: Редакция журнала "Успехи физических наук", 1999]. Кстати, если уж говорить об информационной архитектуре, об архитектуре информационных объектов, то, конечно же, задача синтеза структуры фазового пространства физической системы, исходя из ее требуемых свойств, будет являться чисто архитектурной. Особенно это касается неравновесных, диссипативных систем, конструирование которых сводится, по сути, к формированию в некоторых областях фазового пространства (нематериального!) необходимого числа фокусов - аттракторов, которые будут определять установившееся поведение системы. Однако и в этом случае мы видим, что информационные характеристики все же определяются соотношением физических параметров системы.
Красиво выглядит определение количества информации по Кадомцеву через параметры эволюции системы - здесь количеством информации называется величина ln(V/dV), где V - полный "объем" фазового пространства в момент наблюдения, а dV - доля объема фазового пространства, занимаемого системой в начальном состоянии. Заметим, здесь вовсе отсутствуют параметры каналов передачи каких бы то ни было сигналов и статистические характеристики, а количество информации, присущей системе, связывается с процессом ее эволюционирования. При этом система оказывается наделенной памятью, она накапливает информацию: в качестве "запоминающих элементов" используются возникающие в ходе эволюции степени свободы динамической системы. Под термином "динамическая система" можно понимать чрезвычайно широкий класс объектов. Б. Б. Кадомцев пишет: "Например, барханы пустыни можно рассматривать как медленно эволюционирующую динамическую систему, запоминающую историю взаимодействия поверхности песка с ветрами".
В общем, мы видим, что усложнение, структурное развитие, архитектура системы вызывают к жизни такие ее свойства, которые изначально в ней не присутствовали. Особенно интересно наблюдать взаимодействие систем с памятью. Тут начинают происходить процессы самопроизвольной адаптации одних систем к другим. С точки зрения Кадомцева, этот процесс аналогичен появлению новой понятийной категории - знания. Знания системы о реакциях других систем на поведение данной. В контексте нашего разговора это означает буквально следующее: архитектура сети взаимодействия систем (сети? почему нет?) порождает знание. Не в смысле объема накопленной информации, сведений, а именно как продукт отношений и "опыта".
Что дальше? А дальше мы видим, что знание и опыт, накопленные в ходе совместной эволюции динамических систем, используются для выработки поведения, реакций, которые становятся все менее привязанными к ближайшим по времени внешним воздействиям, то есть приобретают, по словам Кадомцева, "невременной характер". И далее: "Благодаря этому акт выбора реакции (волевой акт) выглядит как бы свободным - он не предопределен видимыми в настоящий момент причинами. Более того, проинтегрированные за большой промежуток времени и накопленные в памяти сведения содержат информацию о прошлом поведении системы и ее окружения, поэтому появляется возможность предугадывания событий, а следовательно, принятия решений с определенной целью".
Божественный Принцип свободной воли, низложенный до уровня необходимо возникающего свойства, предопределенного архитектурой системы… Н-да…
Границы применимости меры беспорядка
Проблемы начинаются в двух случаях:
• когда начинают смешивать различные понимания беспорядка, и энтропия становится мерой беспорядка вообще;
• когда понятие энтропии применяется для систем, не являющихся термодинамическими.
В обоих этих случаях применение понятия термодинамической энтропии совершенно неправомерно. Другой пример - учет электромагнитных сил взаимодействия между ионами. В этом случае наиболее вероятным состоянием, соответствующим максимуму энтропии, будет упорядоченное кристаллическое состояние, а совсем не "хаос". (Термин "хаос" здесь понимается в смысле беспорядка - в наивном смысле. К хаосу в математическом смысле, как сильно неустойчивой нелинейной системе, это не имеет отношения.) Однако многие ученые стали отождествлять информацию с "отрицательной энтропией" ввиду совпадения выражений для этих понятий. На самом деле энтропия не является мерой дезорганизации, мерой беспорядка и хаоса вообще, а информация далеко не всегда является мерой упорядоченности, организованности и порядка.