Комбинаторный подход к количественному определению информации

СИСТЕМНЫЕ ОБРАЗОВАНИЯ: ИНФОРМАЦИЯ И ОТРАЖЕНИЕ


Вяткин В.Б.

ЗАДАЧА ОЦЕНКИ НЕГЭНТРОПИИ ОТРАЖЕНИЯ СИСТЕМНЫХ ОБЪЕКТОВ
И ТРАДИЦИОННЫЕ ПОДХОДЫ К КОЛИЧЕСТВЕННОМУ
ОПРЕДЕЛЕНИЮ ИНФОРМАЦИИ

(Материалы из диссертации: Вяткин В.Б. Математические модели
информационной оценки признаков рудных объектов
)
.....................................................................................................................................

Комбинаторный подход к количественному
определению информации

Комбинаторное определение количества информации, исторически появившееся первым, характеризуется использованием математических функций, оперирующих с конечными множествами элементов, образующих какое-либо сообщение или систему. Основоположником данного направления в теории информации принято считать Р. Хартли, который в 1928 году, при сравнении пропускной способности различных технических систем связи, предложил использовать для количественного определения информации логарифмическую функцию, связав при этом понятие информации с осуществлением выбора из множества возможностей [23]. Р. Хартли исходил из того, что при передаче сообщения с помощью S-символьного алфавита каждому символу сообщения соответствует единичный выбор из S возможностей. Следовательно, для того, чтобы передать сообщение из n символов по техническому каналу связи, необходимо осуществить n таких выборов. При этом сообщение в целом, как единая n-символьная последовательность, является реализацией одной из возможных таких последовательностей.

Далее рассуждения выглядели следующим образом: "будем произвольно считать, что количество информации пропорционально числу выборов, а коэффициент пропорциональности выберем таким образом, чтобы равным числам возможных последовательностей соответствовали равные количества информации" [23, с. 11]. То есть, обозначая количество информации через H, а коэффициент пропорциональности через K, имеем:

........................................................................ (2)

Выдвигая условие: "если число выборов и в двух системах таковы, что возможных последовательностей в обеих системах одинаково, то одинаково и количество информации" [23, с.11] , Р. Хартли определил K следующим образом:

если.,

то. ,

откуда ..

Последнее выражение справедливо для всех значений S, если S и K связаны между собой соотношением:

,.................................................................. (3)

где произвольно и одинаково для любых систем связи.

Поскольку произвольно, то опуская его и подставляя (3) в (2), Хартли получил, что

......................................................................(4)

Основание логарифма в выражении (4) произвольно и определяется выбором единицы измерения информации. (В теории информации принято использовать логарифм по основанию два, а соответствующую единицу называть битом.)

Наиболее широкую свою известность выражение (4) получило при и двоичном основании логарифма:

.......................................................................(5)

Формула (5) в научной литературе часто именуется как "двоичный логарифм Хартли" и в настоящее время широко используется в различных областях знания для информационно-количественной характеристики произвольных конечных множеств. При этом первоначальное содержание S трансформировалось и приобрело универсальный характер. Например, как отмечает А.Д. Урсул, количество элементов в таких множествах "может быть и количеством случайных событий, и количеством возможностей, и наличным количеством каких-то предметов и т.д." [21, с.37].

Необходимо также отметить, что двоичный логарифм Хартли (5) весьма часто интерпретируется как энтропия множества равновероятных возможностей, которая снимается в виде информации при осуществлении одной из них. Более того, рассмотрение комбинаторного подхода к определению количества информации иногда начинается именно с определения Н как энтропии. (Так, например, делал академик А.Н. Колмогоров [12], что будет показано ниже.)

Так как в дальнейшем изложении мы будем пытаться решать проблему негэнтропийной оценки отражения системных объектов с помощью различных определений количества информации, то целесообразно для повышения объективности общего заключения отметить соответствующие взгляды известного американского физика Л. Бриллюэна, основанные на комбинаторном подходе.

Разрабатывая 1950-х годах одну из ветвей теории информации, ориентированную на анализ физических экспериментов, научных теорий, законов и т.п., Л. Бриллюэн дал по его утверждению "точное научное определение слова "информация" [2, 3]. Рассуждения при этом сводились к следующему. – "Рассмотрим ситуацию, в которой могут произойти различных событий, но при условии, что эти возможных исходов считаются априори равновероятными. Это есть начальное условие, когда у нас нет специальной информации… . Но могут создаться такие обстоятельства, когда мы будем располагать более точными определениями… и когда, таким образом, число равновероятных исходов уменьшится до " [3, с. 31]. Тогда утверждается, что информация , полученная при данных обстоятельствах выражается формулой:

, .....................................................(6)

где K есть постоянная, зависящая от выбора единиц.

Применительно к решению технических задач связи считается, что

и выражение (6) приобретает вид:

.......................................................(7)

В том случае , когда исследуются физические проблемы, в качестве K рекомендуется брать постоянную Л. Больцмана. Используя это применительно к термодинамическим системам, Л. Бриллюэн показал, что

, ....................................................................(8)

где: - энтропия системы в общем случае, - энтропия системы в особом случае.

На основании выражения (8) был сформулирован отмеченный выше "негэнтропийный принцип информации", посредством которого Л. Бриллюэн переводил свой вариант теории информации в разряд физических теорий. Таким образом, количество информации во взглядах Л. Бриллюэна представляет собой меру уменьшения неопределенности состояния чего-либо (физической системы) в результате получения соответствующих дополнительных сведений.

Формулы (4), (5) и (6), (7), (8) для расчета комбинаторного количества информации были получены соответственно в 1928 и 1956 годах, а их вывод имел под собой интуитивно-физическую основу. В настоящее время, когда математический аппарат теории информации является развитым во многих отношениях, характеристику комбинаторного подхода принято давать в аксиоматической форме. (Здесь мы имеем типичный случай того, что, когда интуитивная теория становится достаточно развитой, то начинается ее аксиоматизация [19].) Дадим такую характеристику, придерживаясь изложения комбинаторного подхода, данного академиком А.Н. Колмогоровым, что позволит нам иметь более строгое представление как об информационных мерах Р. Хартли и Л. Бриллюэна, так и о комбинаторном подходе в целом.

"Пусть переменное х способно принимать значения, принадлежащие конечному множеству Х, которое состоит из N элементов. Говорят, что "энтропия" переменного х равна

................................................................... (9)

Указывая определенное значение переменного х, мы "снимаем" эту энтропию, сообщая "информацию" [12, с. 213]:

..................................................................... (10)

При наличии переменных , которые могут принимать соответствующие множества значений , содержащих элементов, имеем, что

В том случае, когда ставится задача определения количества информации, содержащейся в конкретном значении х относительно переменной величины y, решение выглядит следующим образом.

Из всех пар х и у, которые принадлежат прямому произведению множеств их значений (XY), выделяется только множество возможных пар U. По множеству U при любом определяется соответствующее множество значений у, для которых справедливо . При этом говорится, что условная энтропия у имеет вид:

,.......................................................... (11)

где - число элементов в .

На основе (9) и (11) решение задачи, то есть количество информации, содержащейся в относительно у выражается формулой:

, ................................................(12)

причем и соответственно .

Нетрудно видеть, что в приведенной строгой характеристике комбинаторного подхода выражение (10) представляет собой двоичный логарифм Р.Хартли, а количество информации по Л.Бриллюэну является конкретизацией формулы (12) в частном случае.

Практическое определение количества информации по формуле (12) А.Н. Колмогоров показал на примере данных нижеследующей таблицы.

........................................................................................................................Таблица 1.
Возможные и невозможные сочетания значений х и у

x y
1 2 3 4
1 + + + +
2 + - + -
3 - + - -

В приведенной таблице знаком "+" отмечены возможные сочетания значений х и у, знаком "- " невозможные их сочетания. Использование формулы (12) дает, что:

Заканчивая общее описание комбинаторного подхода, отметим что его основным достоинством является логическая независимость от математической вероятности, следствием чего является детерминированное (невероятностное) определение количества информации, содержащейся в конечных множествах каких-либо элементов. (По этому поводу А.Н. Колмогоров говорил (имея в виду теорию информации в целом), что "представляется важной задача освобождения всюду, где это возможно, от излишних вероятностных допущений" [12, с. 252].)

Рассматривая возможность количественного определения негэнтропии отражения с помощью комбинаторного подхода, прежде всего, отметим, что информация , отражаемая каждым из системных объектов , в общем случае выражается через двоичный логарифм Хартли:

.................................. (13)

Из анализа выражений (13) следует, что информация, получаемая через отражающий системный объект В с помощью информационной меры Р.Хартли, ничего не говорит об отражаемом системном объекте А, как о целостном образовании. Единственное, что мы можем сказать при этом об объекте А и то, только в том случае, когда он закрыт (рис. 1 в,д), так это то, что .

Используя формулу Л. Бриллюэна (7), которая может быть применена только в закрытом случае, мы получим, что

....................................................... (14)

Очевидно, что выражение (14) не может быть использовано в качестве оценки негэнтропии отражения, поскольку с позиций такой оценки, получаемые с его помощью результаты, будут являться содержательным нонсенсом. Сущность нонсенса сводится к тому, что чем сильнее будут взаимосвязаны отражающий и отражаемый объекты, тем меньше информации мы будем получать о последнем как едином целом. Например, если 80 % территории рудного поля (системный объект А) занимают магматические породы (системный объект ), а 20% - осадочные породы (системный объект ), то согласно формуле (14) осадочные породы будут содержать о рудном поле в целом больше информации, чем магматические породы (естественно, что при этом территория рудного поля разбивается на элементарные ячейки).

Формула относительной информации (12), в свою очередь, в рассматриваемом случае дает, что

.................. ...................(15)

Нетрудно видеть, что выражение (15) является инвариантным относительно открытости закрытости отражаемого объекта и по существу тождественно выражению (14), негативность которого в отношении негэнтропийной оценки только что была отмечена.

Таким образом, мы получили, что чисто комбинаторный подход к определению количества информации, в традиционном своем представлении, не позволяет количественно охарактеризовать негэнтропию отражения друг через друга двух системных объектов.


Locations of visitors to this page

Главная страница



Hosted by uCoz