Синергетическая теория информации (краткая характеристика)

СИСТЕМНЫЕ ОБРАЗОВАНИЯ: ИНФОРМАЦИЯ И ОТРАЖЕНИЕ


Вяткин В.Б.

СТРУКТУРНАЯ ОРГАНИЗАЦИЯ ЭЛЕКТРОННЫХ СИСТЕМ
АТОМОВ ХИМИЧЕСКИХ ЭЛЕМЕНТОВ
В СВЕТЕ СИНЕРГЕТИЧЕСКОЙ ТЕОРИИ ИНФОРМАЦИИ

// Ergo. Проблемы методологии междисциплинарных исследований и комплексного обеспечения
научно-исследовательской деятельности. Вып. 4. Екатеринбург: УрО РАН, 2005

-------------------------------------------------------------------------------------------------------------------------

1. Краткая характеристика синергетической теории информации

Объектом познания теории являются информационно-количественные аспекты отражения дискретных системных образований. Основные базовые понятия – системный объект и информация. При этом под системным объектом понимается качественно обособленное по какому-либо признаку конечное множество элементов в составе некоторой системы, а за информацию принимаются сведения о системном объекте как едином целом.

Первоначальной задачей теории является оценка количества информации, отражаемой относительно друг друга двумя взаимосвязанными системными объектами. Постановка этой задачи выглядит следующим образом.

Пусть в составе некоторой системы (рис. 1), по отличительным признакам и выделены три системных объекта , , . Количество элементов в составе объектов A, B, K равно , соответственно. Считается, что системные объекты A и B непосредственно взаимосвязаны между собой, если (рис. 4, б,в,г,д). Требуется определить, чему равно количество информации , отражаемой системными объектами A и B относительно друг друга при наличии между ними непосредственной взаимосвязи.

Рис. 1. Модели взаимосвязи системных объектов А и В в составе системы D

а - модель отсутствия взаимосязи; б, в ,г - модель частичной (статистической) взаимосвязи;
д - модель полной (взаимно-однозначной) взаимосвязи

С гносеологической точки зрения процесс получения информации состоит из трех этапов. На первом этапе система D рассматривается в плоскости признака и выделяется системный объект A (рис. 2а). На втором этапе аналогично выделяется системный объект B (рис. 2б). После завершения работ первых двух сохраняется неопределенность относительно существования между системными объектами A и B непосредственной взаимосвязи. Рассматривая на третьем этапе системные объекты A и B в совмещенной плоскости признаков и (рис. 2в), познающий субъект выделяет третий системный объект и тем самым снимает (ликвидирует) указанную неопределенность и получает информацию , которую системные объекты A и B отражают относительно друг друга.

Рис. 2. Система D и системные объекты А, В, K в плоскостях признаков и

Так как синонимом неопределенности чего-либо, а также отсутствия или недостатка знаний (информации) о чем-либо в настоящее время принято считать энтропию [4], то информации , для отличия ее от других видов информации, дано название негэнтропия отражения. То есть негэнтропия отражения представляет собой информацию об одном системном объекте, отраженную через непосредственно взаимосвязанный с ним другой системный объект.

Выводу формулы негэнтропии отражения предшествует определение количества информации , которую произвольный системный объект А отражает о самом себе как едином целом и называемую также самоотражаемой информацией. При этом за показатель системного объекта А, как единого целого, принят интегративный код его элементов, представляющий собой индивидуальную для каждого элемента последовательность символов двоичного алфавита, число которых (длина кода) является функцией от общего количества элементов системного объекта. Соответственно, за количество самоотражаемой информации принимается средняя длина интегративного кода элементов:

. [5]................................................................................................... (1)

Негэнтропия отражения , в свою очередь, выводится на основе анализа процесса передачи информации по системе информационной связи, в которой отражаемый (A) и отражающий (B) системные объекты являются, соответственно, источником и приемником информации, а связующий объект выступает в качестве передающей среды или канала связи. При этом адресатом является познающий субъект. В результате указанного анализа формула негэнтропии отражения системных объектов получена в следующем виде:

. ................................................................................................(2)

Системный объект А, при его отражении через совокупность системных объектов , выделенных по множеству значений признака , рассматривается в качестве автономной системы (рис. 3), разделенной по признаку на N частей.

Рис. 3. Система А и совокупность отражающих системны объектов

При анализе отражения такой системы в условиях, когда , установлен информационный закон отражения: информация , отражаемая системой через совокупность своих частей, разделяется на отраженную и неотраженную части, равные аддитивной негэнтропии и энтропии отражения , соответственно. То есть:

,...........................................................................................................(3)

где: ........., ...............................................................................................(4)

. ...............................................................................................(5)

При этом отмечается, что энтропия отражения S, полученная в результате вычисления разности , математически тождественна информационно-энтропийной мере К. Шеннона [6], имеющей основополагающее значение в традиционной (вероятностной) теории информации. Данный факт свидетельствует о том, что синергетическая теория информации и теория информации в версии К. Шеннона непосредственно взаимосвязаны между собой и в своей совокупности образуют единую количественную теорию информации

Анализ формул (4) и (5) показывает, что чем более раздробленной является система по какому-либо признаку или, что, то же самое, чем более разнообразны и неупорядочены по этому признаку ее элементы, тем больше энтропия отражения S и меньше аддитивная негэнтропия . На этом основании делается вывод, что по отношению к структуре отражаемой системы аддитивная негэнтропия и энтропия отражения выступают в качестве показателей ее упорядоченности и хаотичности, соответственно.

Выражение (3) инвариантно относительно любых структурных преобразований системы А, происходящих без изменения числа ее элементов . Поэтому, с учетом сделанного вывода, данное выражение интерпретируется также, как закон сохранения суммы хаоса и порядка, то есть:

. [7] .........................................................................(6)

На основании выражений (3) и (6) в качестве характеристики структурной организации системных образований, представленных конечным множеством элементов, предложено использовать так называемую R-функцию [8]:

. ...................................................................................................(7)

Непосредственное отношение правых частей выражений (4) и (5), после несложных преобразований, приводит R-функцию к удобному для расчетов виду:

. ............................................................................(8)

Значения R-функции показывают, что и в какой мере преобладает в структурной организации системы: хаос или порядок. Так, если , то в структурной организации системы преобладает порядок, в противном случае, когда – хаос. Если , то хаос и порядок уравновешивают друг друга и структурная организация системы является равновесной. Иллюстративный пример изменения значений R-функции (а также изменения и S), в зависимости от того, на сколько частей разбивается система, приведен на рис. 4.

Рис. 4. Значения функций порядка (), хаоса (S) и структурной организации (R) системы,
состоящей из 16-ти элементов, при различном числе (N) ее равновеликих частей

Заканчивая краткую характеристику синергетической теории информации, следует отметить, что помимо взаимосвязи с традиционной теорией информации, она имеет также взаимосвязь со статистической термодинамикой, которая сводится к следующему.

При анализе отражения термодинамической системы A, состоящей из N идеальных газов , установлено, что энтропия Больцмана системы в ее структурно-упорядоченном состоянии () и в состоянии термодинамического равновесия (), а также энтропия смешения газов () приближенно равны:

, , , ..............................................................................(9)

где: , - постоянная Больцмана.

Анализ (9) показывает, что уравнение перехода системы идеальных газов из структурно-упорядоченного состояния в состояние термодинамического равновесия и выражение информационного закона отражения (3) асимптотически эквивалентны друг другу, то есть:

~ . ....................................................................................(10)

На основе выражений (9) и (10) делается заключение, что синергетическая теория информации по своей сущности является физической теорией. В пользу этого говорит также тот факт, что выражения (3) и (6) по своей форме подобны законам сохранения (энергии, количества движения и т.д.), присущим физическим системам. Не исключено, что нечто подобное синергетической теории информации имел в виду академик С.И. Вавилов, делая в 1935 году следующее предположение: “Может случиться так, что будущая физика включит как первичное, простейшее явление “способность сходную с ощущением” (отражение – прим. В.В.), и на ее основе будет объяснять многое другое” [9].

Литература и примечания к разд. 1

4. См., например: Шамбадаль П. Развитие и приложение понятия энтропии. М., 1967; Седов Е.А. Одна формула и весь мир. Книга об энтропии. М., 1982; Волькенштейн М.В. Энтропия и информация. М., 1986.

5. Формула самоотражаемой информации (1) математически подобна информационной мере Р. Хартли, взятой при единичном выборе и двоичном основании логарифма, но принципиально отличается от нее тем, что количество символов используемого алфавита в мере Р. Хартли является числом логарифма, а в формуле (1) – его основанием. (См.: Хартли Р.В.Л. Передача информации. В сб.: Теория информации и ее приложения. М., 1959.)

6. Шеннон К. Работы по теории информации и кибернетике. М., 1963.

7. Здесь и далее символ “ ® ” является знаком импликации, то есть логического суждения типа: если “А”, то “В”.

8. Название функции дано по первой букве английского слова reflection, что в переводе на русский язык означает отражение.

9. Вавилов С. Физика // Под знаменем марксизма, 1935, № 1.

Дальше


Главная страница

 



Hosted by uCoz