Выбрать главу

Легальные определения информации в лучшем случае можно рассматривать как "нейтральные", т.е. ничего существенного не проясняющие, но допускающие относительно широкое толкование и позволяющие реформировать законодательство, не затрагивая основоположений. Поэтому прежде чем перейти к анализу таких определений, обратимся вначале к истории понятия. Наверное, не требует дополнительных разъяснений или обоснований тезис о том, что понятие "информации" оказалось в центре внимания главным образом благодаря технологическому всплеску, результатом которого стала "компьютерная революция". Само слово "информация", как известно, происходит от латинского "information", что означает "разъяснение" или "осведомленность". Первые шаги в теории информации были сделаны еще в первой половине XX в.: в 1928 г. Р. Хартли впервые дал количественное определение информации, а в 1948 г. вышла знаменитая книга К. Шеннона "Математическая теория связи", где информации дается уже статистическое определение8. Поскольку кибернетическое понимание информации исходит главным образом из формулы, предложенной Шенноном, мы остановимся вкратце на идеях, лежащих в ее основании. В теории Шеннона понятие "информация" тесно связано с понятиями "энтропия" и "связь". Информацией оказываются только те передаваемые сообщения, которые уменьшают неопределенность у получателя информации. Следовательно, информация измеряется разностью энтропий системы до и после получения информации. Если целевые критерии системы-приемника информации обозначить "В", событие в системе-передатчике обозначить "А", а энтропию — "Н", то энтропией системы будет разность Н(В) — Н(В/А). Получается, что измерение энтропии системы имеет ценность постольку, поскольку позволяет оценить влияние события А на событие В через показатель количества информации. Значит, информация выступает как мера отношения, взаимосвязи между системами, явлениями, процессами, а не как показатель состояния систем9. Важно отметить и еще один момент: если информация предстает в виде отношений между сигналами (зарядами, знаками), которые имеют количественное измерение, то содержание, или семантическая сторона взаимодействия отходит на второй план, так как является, как указывает сам Шеннон во введении к своей книге, "иррелевантной в отношении инженерной проблемы"10.

Информация не только тесно связана с процессом ее передачи (трансмиссии), но в конечном итоге определяется этим процессом. Иными словами, информация представляет собой не столько совокупность сведений, сколько совокупность символов, подлежащих декодированию. Декодирование или распознавание рассматривается при этом как снятие неопределенности (энтропии) посредством выбора, осуществляемого получателем информации. Дальнейшая разработка теории информации велась в направлении расширения понятия "информации", которое включает отныне семантический и прагматический аспекты.

Так, уже Н. Винер, также один из основоположников кибернетики и современной теории информации, понимает под информацией "обозначение содержания, полученного из внешнего мира в процессе нашего приспособления к нему и приспосабливания наших чувств"11. В определении информации для Винера первоочередным является момент активного обмена со средой, в результате чего достигается приращение знания. Таким образом, собственно "информацией", по Винеру, является "информация воздействия" (или "взаимодействия", что ближе к количественной концепции Хартли). Представленная в таком виде информация теряет свою автономность, свойство быть независимой от какого-либо субъекта (носителя). Иными словами, она уже не может рассматриваться как некое субстанциальное начало — нечто вроде платоновского "мира идей" или попперовского "третьего мира", — существующее помимо опыта.

В приведенных определениях информации содержится указание и еще на одно неотъемлемое свойство информации — ее противостояние хаосу. Конструктивный или творческий потенциал информации в теории информации нашел выражение в понятии "негэнтропия". "Негэнтропию, — как указывает Э.Х. Лийв, — часто ошибочно дефинируют как энтропию с отрицательным знаком. Это может вызывать большие недоразумения. Негэнтропия (ОНГ) действительно измеряется в тех же единицах, как энтропия (например, в битах). Направление ее действительно противоположное энтропии. Ее увеличение вызывает такое же уменьшение энтропии. Однако эти величины изменяются в системе по самостоятельным закономерностям и их абсолютные значения мало зависят друг от друга. Негэнтропия является мерой порядка, упорядоченности, внутренней структуры, связанной информации"12.