Хаос и порядок дискретных систем

СИСТЕМНЫЕ ОБРАЗОВАНИЯ: ИНФОРМАЦИЯ И ОТРАЖЕНИЕ


 

Вяткин В.Б.

ХАОС И ПОРЯДОК ДИСКРЕТНЫХ СИСТЕМ
В СВЕТЕ СИНЕРГЕТИЧЕСКОЙ ТЕОРИИ ИНФОРМАЦИИ

 // Научный журнал КубГАУ [Электронный ресурс]. – Краснодар: КубГАУ, 2009. – №03(47). –
Режим доступа: http://ej.kubagro.ru/2009/03/pdf/08.pdf  

В статье с помощью синергетической теории информации проведена оценка хаоса и порядка в структуре таких систем как электронные системы атомов, белковые молекулы, паутины пауков, поэтические произведения. Сделано предположение о существовании в природе статистического закона структурной организации, согласно которому эволюция дискретных систем направлена в сторону равновесия хаоса и порядка.

 

 

«Для характеристики реального мира ныне недостаточны фундаментальные понятия классической физики – материя, вещество, движение, энергия, пространство, время. Для полноты этой характеристики необходимо столь же фундаментальное и столь же всеобщее понятие информации»

Берг А.И., Спиркин А.Г.

 

Введение

Рассматривая ту или иную систему с конечным множеством элементов в плоскости какого-либо признака, мы, как правило, по значениям этого признака разделяем систему на части и характеризуем образовавшуюся структуру с помощью таких противоположных понятий как хаос и порядок. То есть, чем большее разнообразие проявляют элементы по значениям признака и, соответственно, чем на большее число частей разделяется система, тем более хаотичной и менее упорядоченной является ее структура. Наглядной иллюстрацией сказанного служит рисунок 1, на котором система, состоящая из 16-ти элементов, характеризуется признаком «направление движения элементов».

Рисунок 1. Деление системы на части по направлению

 движения элементов

 

На данном рисунке приведены 5 состояний системы, которым соответствует последовательное ее деление на 1, 2, 4, 8, 16 равновеликих частей, отличающихся друг от друга направлением движения элементов. В состоянии на рисунке 1а все элементы движутся в одном направлении, и в структуре системы наблюдается идеальный порядок. На рисунке 1д имеем полярную противоположность, то есть каждый элемент системы обладает строго индивидуальным направлением движения и структура системы является максимально хаотичной. Состояния системы на рисунках 1б,в,г занимают промежуточное положение по отношению к состояниям на рисунках 1а,д и характеризуются тем, что в их структуре присутствует как хаотичность, так и упорядоченность.

Количественная сторона хаоса и порядка в структуре дискретных систем обычно характеризуется с помощью статистической термодинамики или традиционной теории информации. В обоих случаях за меру хаоса принимается энтропия. Причем в термодинамике это энтропия Л.Больцмана, статистически выражающая второе начало и имеющая теоретическое значение при анализе молекулярных множеств, а в теории информации, – энтропия множества вероятностей К.Шеннона, которая служит также и мерой количества информации, передаваемой в виде символьных сообщений по техническим каналам связи [1]. Структурная упорядоченность системы, в свою очередь, оценивается также с помощью энтропии, но только взятой уже с обратным знаком. Короче говоря, принято считать, что хаос (энтропия) и порядок (информация), равны друг другу, но противоположно направлены.

Определяющую роль в таком понимании соотношения между структурным хаосом и порядком сыграли высказывания таких известных ученых, как физик Э.Шредингер и основоположник кибернетики Н.Винер. – Э.Шредингер, рассматривая с физических позиций вопрос о том, что такое жизнь, в отношении термодинамической вероятности, фигурирующей в формуле энтропии Л.Больцмана, писал: «Если D – мера неупорядоченности, то обратную величину 1/D можно рассматривать как прямую меру упорядоченности. Поскольку логарифм 1/D есть то же, что и отрицательный логарифм D, мы можем написать уравнение Больцмана таким образом: » [1, с.75]. Не приводя более каких-либо обоснований, Э.Шредингер делает заключение о том, что «энтропия, взятая с обратным знаком, есть сама по себе мера упорядоченности» [2, с.75]. Аналогичное мнение, но только уже со стороны своей статистической теории информации, высказал и Н.Винер, говоря, что «понятие количества информации совершенно естественно связывается с классическим понятием статистической механики – понятием энтропии. Как количество информации в системе есть мера организованности системы, точно также энтропия системы есть мера дезорганизованности системы, одно равно другому, взятому с обратным знаком» [3, с.55].

Эти заключения известных ученых получили широкое распространение и, найдя поддержку в устоявшемся смысловом дуализме информационно-энтропийной меры К.Шеннона, по существу сформировали энтропийную парадигму о соотношении в структуре системы хаоса и порядка, согласно которой хаос и порядок  по своей величине равны друг другу, а их общей мерой является энтропия.

Вместе с тем, анализ состояний системы на рисунке 1 позволяет высказать в адрес данной парадигмы ряд критических замечаний. Эти замечания относятся к оценке структурного порядка и сводятся к следующему.

В состоянии системы на рисунке 1а какая-либо неупорядоченность, несогласованность в направлении движения элементов отсутствует и, соответственно, энтропия равна нулю. Но, непонятно, почему здесь должна быть равна нулю и оценка наблюдаемого идеального порядка? Такое же противоречие здравому смыслу, при оценке порядка с помощью энтропии, можно видеть и на рисунке 1д, где в движении элементов наблюдается полный хаос и энтропия системы является максимальной. О каком отличном от нуля значении порядка мы можем в данном случае вести речь? Более того, например, при уменьшении общего числа элементов системы будет также уменьшаться и максимальное значение энтропии и, если вставать на позиции энтропийной парадигмы, мы каждый раз будем получать новые оценки порядка. Но, как можно получать различные оценки того, чего просто не существует?

В добавление к сказанному, отметим также и промежуточные состояния системы на рисунках 1б и 1г, в структуре которых наблюдается как хаотичность, так и упорядоченность. Невооруженным взглядом видно, что здесь, в первом случае, в направлении движения элементов преобладает упорядоченность, а во втором – хаотичность и, соответственно, о каком-либо равенстве значений хаоса и порядка снова говорить не приходится.

Также следует отметить, что критические замечания в адрес оценки упорядоченности систем с помощью энтропии ранее делали и другие исследователи. Например, специалисты в области термодинамики А.С.Мещеряков и С.А.Улыбин, отмечая, что «мера упорядоченности до сих пор остается дискуссионной, даже в части терминологии», указывают на то, что «для характеристики упорядоченности молекулярного множества разумно было бы вообще отказаться от употребления любого словосочетания с термином энтропия» [4, с.258].

Приведенная критика энтропийной парадигмы оценки хаоса и порядка наводит на мысль о том, что хаос и порядок в структуре дискретных систем должны оцениваться с помощью различных функций, значения которых отличались бы величиной, а не знаком. Причем эти функции должны быть взаимосвязаны между собой таким образом, чтобы соотношение получаемых оценок хаоса и порядка изменялось по принципу сообщающихся сосудов, а не являлось зеркально-симметричным, как в энтропийной парадигме Шредингера-Винера.

Такая дифференцированная оценка структурного хаоса и порядка в настоящее время может производиться с помощью синергетической теории информации [5,6,7], предметом познания которой являются информационно-количественные аспекты отражения дискретных систем в плоскости признаков их описания. В данной теории, при анализе отражения системы через совокупность своих частей, получены функции отраженной и неотраженной информации, с помощью которых в структуре системы можно индивидуально оценивать порядок и хаос, соответственно. При этом отраженная информация именуется как аддитивная негэнтропия отражения, а неотраженная, – как энтропия отражения. Также отмечается, что каждая из этих информационных функций имеет свою непосредственную взаимосвязь с энтропией Больцмана, а энтропия отражения, кроме того, математически тождественна энтропии Шеннона, но в отличие от последней получена аналитическим путем.

В нижеследующем изложении дается характеристика синергетической теории информации в формате оценки хаоса и порядка и проводится соответствующий структурный анализ дискретных систем различной природы.

 

Информационно-синергетические функции хаоса и порядка

В синергетической теории информации установлено, что при отражении дискретных систем через совокупность своих частей, происходит разделение отражаемой информации  на отраженную и неотраженную части, равные, соответственно, аддитивной негэнтропии  и энтропии отражения . Формулы этих разновидностей синергетической информации[1] имеют вид:

                                                                            (1)

                                                                  (2)

                                                                  (3)

 

где: M – общее количество элементов в составе системы, N – число частей системы,  – количество элементов в i-й части.

Аддитивная негэнтропия (2) и энтропия отражения (3) соотносятся между собой таким образом, что чем более хаотичной является структура системы, то есть, чем больше частей выделяется в ее составе и чем меньше  эти части отличаются друг от друга по числу элементов, тем больше энтропия отражения и меньше аддитивная негэнтропия. И, наоборот, – чем больше порядка в структуре системы, то есть, чем меньше частей в ее составе и чем более доминирует какая-либо часть по числу элементов, тем больше аддитивная негэнтропия и меньше энтропия отражения. Например, для последовательного нарастания хаоса и уменьшения порядка в структуре системы на рисунке 1, по формулам (2) и (3) имеем:

 Состояние системы:  а  б  в  г  д

                               Аддитивная негэнтропия :  4  3  2  1  0

                                        Энтропия отражения S:  0  1  2  3  4 [2]

Все это говорит о том, что аддитивная негэнтропия и энтропия отражения являются информационно-синергетическими мерами структурного порядка и хаоса.

По определению, аддитивная негэнтропия и энтропия отражения, как отраженная и неотраженная информации, в своей сумме равны информации (1), которую отражает система о самой себе как едином целом:

                                                                     (4)

 

Выражение (4) является инвариантным относительно любых структурных преобразований системы и в излагаемом контексте интерпретируется как закон сохранения суммы хаоса и порядка, то есть:

порядок + хаос = const

 

Иначе говоря, чтобы мы ни делали с системой без изменения общего количества элементов, на сколько бы частей не разбивали ее по значениям какого-либо признака и в каком бы соотношении по числу элементов не находились между собой части, сумма хаоса и порядка в структуре системы всегда будет оставаться неизменной. Например, для системы на рисунке 1, как это видно из результатов расчета аддитивной негэнтропии и энтропии отражения, по всем состояниям имеем: .

Хаотичность и упорядоченность в своей совокупности определяют в целом структурную организацию системы и, соответственно, для ее количественной характеристики может использоваться та или иная функция, аргументами которой являются меры хаоса и порядка. В качестве такой функции в синергетической теории информации используется так называемая      R-функция[3], представляющая собой отношение аддитивной негэнтропии к энтропии отражения:

                                                                 (5)

 

То есть значения R-функции говорят о том, что и в какой мере преобладает в структуре системы: хаос или порядок. Так, если R > 1, то в структуре системы преобладает порядок, в противном случае, когда R < 1 – хаос. При R = 1 хаос и порядок уравновешивают друг друга, и структурная организация системы является равновесной. Например, для различных структурных состояний системы на рисунке 1 значения R-функции равны:

 Состояние системы:   а   б    в    г      д

                                                Значение R-функции:  ∞   3    1   0.33  0

Аддитивная негэнтропия  и энтропия отражения S, в зависимости от общего количества элементов M в составе системы и числа ее частей N, могут принимать следующие максимальные и минимальные значения:

                                                                           (6)

                                                             (7)

                                             (8)

                              (9)

 

На рисунке 2 приведены графики функций (6) – (9) при фиксированном числе элементов M, которые образуют два контура: энтропийный – abdefha и негэнтропийный или информационный – cdfghbc. Эти контуры локализуют области всех возможных значений аддитивной негэнтропии и энтропии отражения и в своей совокупности составляют диаграмму, именуемую как информационное поле отражения дискретных систем.

 

Рисунок 2. Информационное поле отражения дискретных систем

( MA = 118 )

 

По пересечению контуров в точках b и f, где наблюдаются равенства  и , на горизонтальной оси выделяются три интервала значений  N (левый, центральный, правый) с присущими каждому интервалу особенностями взаимоотношений аддитивной негэнтропии (порядка) и энтропии отражения (хаоса). При этом значение N, соответствующее точке b, является детерминированным и равно  с округлением до ближнего большего целого, а значение N, соответствующее точке  f, не имеет аналитического выражения и определяется численным путем[4], но в любом случае не превышает .

В левом интервале  при любом соотношении частей системы по числу элементов справедливо неравенство  и, соответственно, структурная упорядоченность системы всегда больше ее хаотичности и R > 1. В правом интервале  наблюдается противоположная картина, когда при любых структурных преобразованиях , что соответствует преобладанию хаоса над порядком и значениям R < 1. В центральном интервале  между  и S могут быть различные взаимоотношения и проявляется тенденция к взаимному уравновешиванию в структуре системы хаоса и порядка. R-функция при этом может быть как больше, так и меньше единицы, а в ряде случаев (по линии bf) имеет место и равенство R = 1. Иначе говоря, в левом интервале наблюдается необратимое преобладание в структуре системы порядка над хаосом, а в правом интервале наоборот, – необратимое преобладание хаоса над порядком. В центральном интервале, в свою очередь, преобладание как порядка над хаосом, так и хаоса над порядком является обратимым.

Отмеченные особенности интервалов значений N позволяют все дискретные системы, в зависимости от общего количества их элементов и числа частей, классифицировать на три типа:

- упорядоченные (левый интервал);

- синергетичные (центральный интервал);

- хаотичные (правый интервал).

Описанные информационно-синергетические функции хаоса и порядка и приведенная классификация имеют универсальный характер и могут использоваться при структурном анализе любых дискретных систем с конечным множеством элементов. Продемонстрируем это на примере таких различных по своей природе систем, как электронные системы атомов химических элементов, белковые молекулы, паутины пауков и поэтические произведения. При этом, для лучшего восприятия материала, в каждом случае будем приводить конкретный пример расчета значений , пользуясь следующим вычислительным алгоритмом:

1)    Определяется число элементов в каждой части системы: m

2)    Оценивается общее число элементов системы:

3)    Вычисляются произведения:

4)    Определяется сумма:

5)    Рассчитывается аддитивная негэнтропия:

6)    Рассчитывается энтропия отражения:

7)    Определяется R-функция:

 

Электронные системы атомов химических элементов

Структура электронных систем атомов химических элементов в первом приближении характеризуется их делением на электронные оболочки и подоболочки и общим количеством электронов, равным порядковому номеру элемента (Z) в периодической системе  Д.И. Менделеева. Дифференцированно рассматривая эти системы в плоскостях оболочек и подоболочек, можно с помощью R-функции оценить их структурную организацию, а по значениям Z = M  и количеству оболочек и подоболочек определить тип систем со стороны соотношения в их структуре хаоса и порядка.

Возьмем для примера атом криптона (Kr, Z = 36), конфигурация электронной системы которого имеет вид:

.

 

Здесь количество частей, на которые разделена система, равно: по оболочкам – N = 4, по подоболочкам – N = 8. Центральный интервал для M = 36 определяется неравенством  и поэтому можно сказать, что электронная система криптона в плоскости оболочек относится к упорядоченному типу систем, а в плоскости подоболочек – к синергетичному. Соответствующий расчет значений функций хаоса и порядка приведен в таблице 1.

 

Таблица 1 – Расчет значений

информационно-синергетических функций хаоса и порядка

 в электронной системе криптона

 

Система электронных оболочек

Система электронных подоболочек

№ п.п.

Оболочка

m

mlog2m

№ п.п.

Подоболочка

m

mlog2m

1

2

3

4

1 (K)

2 (L)

3 (M)

4 (N)

2

8

18

8

2

24

75.06

24

1

2

3

4

5

6

7

8

1s

2s

2p

3s

3p

3d

4s

4p

2

2

6

2

6

10

2

6

2

2

15.51

2

15.51

33.22

2

15.51

M = 36     ∑ mlog2m = 125.06

 

I = 125.06 : 36 = 3.47

 

S = log236 – 3.47 = 1.7

 

R = 3.47 : 1.7 = 2.04

M = 36     ∑ mlog2m = 87.75

 

I = 87.75 : 36 = 2.44

 

S = log236 – 2.44 = 2.73

 

R = 2.44 : 2.73 = 0.89

                 

 

Аналогичным образом проведена обработка электронных систем атомов всех химических элементов с порядковыми номерами [5] и оценена структурная организация периодической системы в целом при ее рассмотрении в плоскости электронов. Полученные результаты кратко сводятся к следующему.

1). На рисунке 3 показано положение электронных систем атомов химических элементов по количеству оболочек и подоболочек относительно границ интервалов значений N.

 

Рисунок 3. Положение электронных систем атомов по количеству
оболочек и подоболочек относительно границ интервалов значений
N

 

Из рисунка 3 видно, что электронные системы всех атомов в плоскости оболочек находятся в области левого интервала и относятся к упорядоченному типу систем, а в плоскости подоболочек – в области центрального интервала и по своему типу являются синергетичными. Единственное исключение составляет электронная система неона  (Z = 10), которая в плоскости подоболочек принадлежит левому интервалу.

Значения R-функции, в свою очередь, представлены в виде графиков на рисунке 4.[6]

 

 

Рисунок 4. Графики R-функции электронных систем атомов

химических элементов в плоскостях оболочек и подоболочек

Из графиков видно, что при делении оболочек на подоболочки значения R-функции электронных систем у всех химических элементов уменьшаются и становятся более близкими к единице. При этом в плоскости оболочек значения варьируют в интервале от 1.51 до 3.60 при среднем значении 1.93. То же самое в плоскости подоболочек составляет: варьирование от 0.63 до 1.42, среднее значение 0.80.

То есть, усложнение электронных систем атомов, при делении оболочек на подоболочки, сопровождается их согласованным переходом из левого интервала значений N в центральный и уменьшением абсолютной величины разности R – 1.

2). Превращения химических элементов, обусловленные радиоактивным распадом ядер, сопровождаются изменениями структуры электронных систем атомов и соответствующим изменением значений
R-функции. Эти превращения и изменения R-функции в естественных радиоактивных рядах распада выглядят следующим образом.

Системы оболочек:

Уран (1.774) → Радий (1.755) → Радон (1.870) → Свинец (1.942).

Торий (1.744) → Астат (2.017) → Свинец (1.942).

Протактиний (1.765) → Актиний (1.748) → Астат (2.017) → Свинец (1.942).

Системы подоболочек:

Уран (0.710) → Радий (0.755) → Радон (0.782) → Свинец (0.783).

Торий (0.730) → Астат (0.779) → Свинец (0.783).

Протактиний (0.713) → Актиний (0.737) → Астат (0.779) → Свинец (0.783).

Приведенные данные свидетельствуют о том, что во всех рядах радиоактивный распад заканчивается увеличением значений R-функции электронных систем конечных продуктов распада по отношению к материнским элементам. При этом, если в системах оболочек, упорядоченных про своему типу, процесс изменения R-функции идет неупорядоченным образом и в целом завершается удалением от единицы, то в более развитых и синергетичных системах подоболочек во всех рядах наблюдается одна и та же закономерность: при образовании каждого нового химического элемента значения R-функции последовательно увеличиваются и приближаются к единице.

3). Периодическая система химических элементов, как единое целостное образование, при ее рассмотрении в электронной плоскости, представляет собой систему, частями которой являются электронные системы отдельных атомов с числом электронов, равным порядковому номеру химического элемента. Такая система относится к семейству систем натурального ряда [8], характеризующихся тем, что соотношение частей системы по числу элементов выражается натуральным рядом чисел или, иначе говоря, числу элементов в части соответствует ее порядковый номер. (Например, выражение «N-я система натурального ряда» говорит о том, что в структуре системы выделяется N частей, в первой из которых содержится 1 элемент, во второй – 2 элемента, …, в N-й – N элементов.) График на рисунке 5 показывает, что R-функция систем натурального ряда при последовательном увеличении числа частей монотонно возрастает и асимптотически приближается к единице. При этом системы все время остаются в пределах центрального интервала и являются синергетичными.

 

 

Рисунок 5. График R-функции систем натурального ряда

 

Соответственно, можно утверждать, что точно также ведет себя и R-функция периодической системы в целом в процессе увеличения общего количества химических элементов. В частности, при 118-ти химических элементах имеем синергетичный тип периодической системы и R = 0.933.

 

Белковые молекулы

На уровне первичной структуры белковые молекулы представляют собой последовательности аминокислотных остатков и могут рассматриваться как системы, разделенные на части по одинаковым видам соответствующих аминокислот. Например, цепь А инсулина, при использовании сокращенных названий аминокислот, имеет вид [9]:

гли-илей-вал-глу-глу-цис-цис-ала-сер-вал-цис-
сер-лей-тир-глу-лей-глу-асп-тир-цис-асп

В данной последовательности M = 21, N = 10, а число одинаковых остатков (m) изменяется от 1 до 4. Центральный интервал значений N для M = 21 равен промежутку [5; 9], откуда следует, что цепь А инсулина относится к хаотичному типу систем. Соответствующие расчеты функций хаоса и порядка приведены в таблице 2, а  таблице 3 даны значения  и границы центрального интервала для случайной выборки белковых молекул [9].

 

Таблица 2 – Расчет значений

информационно-синергетических функций хаоса и порядка

 в структуре цепи А инсулина

  

№ п.п.

Амино-

кислота

m

mlog2m

№ п.п.

Амино-

кислота

m

mlog2m

1

2

3

4

5

гли

ала

вал

илей

лей

1

1

2

1

2

 

0

0

2

0

2

6

7

8

9

10

асп

глу

сер

цис

тир

2

4

2

4

2

 

2

8

2

8

2

M = 21     ∑ mlog2m = 26

 

I = 26 : 21 = 1.24        S = log221 – 1.24 = 3.15

 

R = 1.24 : 3.15 = 0.39

 

 

 Таблица 3 – Значения  MNI,  S,  R  и границы центрального

интервала случайной выборки белковых молекул

 

Белковые молекулы

M

N

Центральный
интервал

S

R

Инсулин, цепь А

Инсулин, цепь В

Рибонуклеаза

Гемоглобин человека, α-цепь

Гемоглобин человека, β-цепь

Миоглобин кита

Белковая цепь вируса

табачной мозаики

21

30

124

141

146

151

 

156

10

15

17

17

17

18

 

16

5 – 9

6 – 13

12 – 54

12 – 62

13 – 64

13 – 66

 

13 – 69

1.24

1.17

3.13

3.39

3.41

3.36

 

3.54

3.15

3.74

3.82

3.75

3.78

3.88

 

3.75

0.39

0.31

0.82

0.91

0.90

0.87

 

0.95

 

Из таблицы 3 видно, что только аминокислотные цепи инсулина попадают в правый интервал и обладают хаотичной структурой. Цепи же всех остальных белковых молекул находятся в центральном интервале и относятся к синергетичному типу систем. Значения R-функции по приведенной выборке молекул изменяются от 0.31 до 0.95 и проявляют тенденцию приближения к единице по мере роста в белковой цепи общего числа аминокислотных остатков.

 

Паутиновые системы

При рассмотрении электронных систем атомов было отмечено, что примером формализованных систем, хаос и порядок в структуре которых уравновешивают друг друга, является семейство систем натурального ряда. Еще одно такое формализованное семейство образуют системы, у которых количество элементов в любой части равно общему числу частей системы. То есть, у данных систем , откуда следует, что они попадают в центральный интервал значений N со стороны его левой границы и относятся к синергетичному типу. Значения , в свою очередь, равны: , . Геометрически эти системы могут быть представлены в виде паутины, поэтому будем называть их паутиновыми системами.

На рисунке 6а приведен модельный пример паутиновой системы. Здесь частью системы является сектор, образованный двумя смежными радиальными лучами, а в качестве элементов выступают отрезки, соединяющие два соседних луча. В структуре приведенной системы , , и непосредственно по формулам (2), (3), (5) значения функций хаоса и порядка, а также структурной организации, равны: , , .

 

 

 

а – модель паутиновой системы;   б, в, г – фотографии природных паутин

Рисунок 6.  Модель паутиновой системы и фотографии

природных паутин [7]

 

Посмотрим теперь, какими значениями информационно-синергетических функций характеризуются природные паутины, сплетенные пауками, фотографии которых представлены рисунке 6б,в,г. Оценим структуру этих паутин со стороны хаоса и порядка, рассматривая, как и в случае модельной паутиновой системы, в качестве частей радиальные сектора, а в качестве элементов, – отрезки спиралевидных витков, соединяющие два смежных радиальных луча.

В таблице 4, в качестве примера информационно-синергетической оценки структуры природных паутин, приведен расчет значений  для паутины на рисунке 6г. Аналогичным образом проанализированы фотографии паутин на рисунке 6б,в, а общие результаты расчетов представлены в виде таблицы 5.

 

Таблица 4 – Расчет значений

информационно-синергетических функций хаоса и порядка

 в структуре паутины на рисунке 6г

№ п.п.

Сектор

m

mlog2m

№ п.п.

Сектор

m

mlog2m

1

2

3

4

5

6

7

8

9

10

11

12

13

14

1*

2

3

4

5

6

7

8

9

10

11

12

13

14

24

24

24

25

26

26

26

24

24

24

22

20

18

18

110.04

69.49

64.00

69.49

69.49

64.00

86.44

104.04

104.04

110.04

110.04

110.04

116.10

122.21

15

16

17

18

19

20

21

22

23

24

25

26

27

15

16

17

18

19

20

21

22

23

24

25

26

27

18

18

18

18

18

17

16

17

17

16

20

23

23

122.21

122.21

110.04

110.04

110.04

98.11

86.44

75.06

75.06

75.06

75.06

75.06

75.06

M = 564     ∑ mlog2m = 2518.89

I = 2518.89 : 564 = 4.47        S = log2564 – 4.47 = 4.67

R = 4.47 : 4.67 = 0.96

* Сектор 1 на рисунке 6г отмечен белой галочкой

 

Таблица 5 – Значения  MNI,  S,  R  и границы центрального

интервала природных паутин на рисунке 6 б, в, г

Паутина

M

N

Центральный
интервал

I

S

R

Рисунок 6б

Рисунок 6в

Рисунок 6г

665

910

564

27

29

27

26 – 299

31 – 412

24 – 254

4.63

4.98

4.47

4.75

4.85

4.67

0.98

1.03

0.96

 

 

Из приведенных расчетных данных видно, что природные паутины по количеству своих частей (секторов) примыкают к левой границе центрального интервала значений N, располагаясь по обе ее стороны. При этом паутина на рисунке 6в недобирает два сектора до центрального интервала и формально относится к упорядоченному типу систем, а паутины на рисунке 6б,г находятся в центральном интервале и являются синергетичными. Значения R-функции, соответственно, варьируют вокруг единицы, отклоняясь от последней, не более, чем на 4%. Это позволяет говорить о том, что природные паутины по своей структуре весьма близки к математически формализованному семейству паутиновых систем, модельный пример которых был рассмотрен выше.

По-видимому, также можно сказать, что инстинктивный замысел пауков при плетении паутин соответствует тому, чтобы структура паутины со стороны соотношения в ней хаоса и порядка являлась равновесной, то есть, чтобы R → 1. Это тем более удивительно, что порядок плетения природной паутины таков, что сначала паук создает и закрепляет на местности несущий каркас, внутри которого потом плетется радиально-лучистая основа будущей паутины, и только после всего этого паук начинает плести спиралевидную липкую нить, по своей форме напоминающую спираль Архимеда.

То есть, получается так, что паук, создав несущий каркас, уже как бы знает, сколько ему будет нужно сплести радиальных нитей, и сколько потом потребуется сделать витков при плетении спиралевидной нити. Впрочем, это удивление значительно снимается, если учесть, что пауки являются одними из древнейших обитателей нашей планеты, и за сотни миллионов лет своей эволюции, через бесчисленное множество проб и ошибок, они вполне могли инстинктивно придти к той гармонии отношений хаоса и порядка в структуре своих паутин, которую мы сейчас наблюдаем.

 

Тексты и языки

Любой языковый текст, от единичного слова до объемного литературного произведения, может быть представлен как система, элементами которой являются отдельные буквы, а части представляют собой совокупности одинаковых букв. Соответственно, с помощью синергетической теории информации можно проводить структурный анализ произвольных текстов со стороны их хаотичности и упорядоченности по количеству и числу встречаемости отдельных букв. При этом, прежде чем выполнять непосредственный анализ конкретных текстов, необходимо отметить следующее.

Общие структурные особенности текстов зависят, главным образом, от двух факторов: грамматического строя языка и количества букв используемого алфавита. Первый фактор определяет относительную частоту встречаемости или вероятность появления отдельных букв в языке в целом, и тем самым оказывает влияние на соотношение частей текстов по количеству букв, а второй фактор ограничивает максимальное число частей в тексте . R-функция (5), в свою очередь, в соответствии с информационным соотношением (4) может быть представлена в следующем виде:

                                                           (10)

 

Так как , то из выражения (10) следует, что после того, как в тексте будут задействованы все буквы алфавита , дальнейшее увеличение его длины  приведет к тому, что значение энтропии отражения S начнет колебаться около своей точной верхней грани в лице , в то время как аддитивная негэнтропия  будет неограниченно возрастать. То есть, R-функция текста при  по существу становится зависящей только от его длины. Отсюда следует, что при оценке и сравнении структурной организации различных текстов со стороны соотношения хаоса и порядка, необходимо накладывать определенные ограничения на длину L оцениваемых участков с таким расчетом, чтобы влияние энтропии отражения S на величину R-функции не было затушевано. Иначе говоря, нужно установить пороговую длину текста, до достижения которой, и при которой, энтропия отражения S и аддитивная негэнтропия  будут находиться в равных условиях. Такой пороговой величиной является длина текста, находящегося в состоянии информационно-энтропийного равновесия  при использовании всех букв алфавита [8]. Будем называть эту длину характеристической длиной текста, и обозначать символом . Определим ее.

Заменяя в формуле  (1) M на , и исходя из условия , получаем, что при информационно-энтропийном равновесии . Откуда:

 

                                                                     (11)

 

В качестве примера использования формулы (11) определим характеристическую длину текста некоторых языков. В работе [10] приведены значения энтропии Шеннона (H), рассчитанные по совокупности относительных частот встречаемости различных букв и пробелов в русском, английском, немецком, французском и испанском языках:

Язык

Русский

Немецкий

Английский

Испанский

Французский

H

4.35

4.10

4.03

3.98

3.96

 

Так как энтропия Шеннона H и энтропия отражения S математически тождественны друг другу [6,8], то, используя формулу (11), получаем следующие значения характеристической длины :

Язык

Русский

Немецкий

Английский

Испанский

Французский

416

294

267

249

242

Используя полученные значения , как предельную величину скользящего окна, можно вдоль текстов строить графики R-функции и проводить по ним сравнительный анализ структурной организации любых текстов, независимо от того, на каком из приведенных языков они написаны. Определенный интерес при этом представляет также одновременное использование скользящих окон различной ширины, что по существу будет представлять собой спектральное разложение текстов в плоскости хаоса и порядка. Следует также отметить, что по данной методике могут анализироваться и белковые цепи, рассматриваемые как тексты, написанные с помощью двадцати известных в настоящее время аминокислот.

Посмотрим теперь, какими значениями информационно-синергетических функций хаоса и порядка обладают конкретные тексты, написанные на русском языке, число букв и пробелов в которых не превышает пороговую величину  При этом обратим свое внимание на поэтические произведения, как наиболее совершенные тексты, обладающие особой красотой и гармонией звучания.

Возьмем, например, 1-е четырнадцатистишие поэмы А.С.Пушкина «Евгений Онегин»:

 «Мой дядя самых честных правил,

Когда не в шутку занемог,

Он уважать себя заставил

И лучше выдумать не мог.

Его пример другим наука;

Но, боже мой, какая скука

С больным сидеть и день и ночь,

Не отходя ни шагу прочь!

Какое низкое коварство

Полуживого забавлять,

Ему подушки поправлять,

Печально подносить лекарство,

Вздыхать и думать про себя:

Когда же черт возьмет тебя!»

Здесь число букв вместе с пробелом (N) равно 27, а их общее количество (М) – 356. Центральный интервал для  ограничен промежутком [19;159], откуда следует, что данное четырнадцатистишие находится в центральном интервале и является синергетичной системой. Частота встречи отдельных букв и пробела, а также расчет значений информационно-синергетических функций хаоса и порядка, приведены в таблице 6, из которой видно, что по своей структурной организации приведенный текст близок к информационно-энтропийному равновесию . (Буквы и пробел в таблице расположены в порядке убывания их относительной частоты (вероятности) в русском языке [10].)

 

Таблица 6 – Расчет значений

информационно-синергетических функций хаоса и порядка

 в буквенной структуре 1-го четырнадцатистишия

поэмы А.С.Пушкина «Евгений Онегин»

 

№ п.п.

Буква

m

mlog2m

№ п.п.

Буква

m

mlog2m

1

2

3

4

5

6

7

8

9

10

11

12

13

14

15

16

Пробел

о

е,ё

а

и

т

н

с

р

в

л

к

м

д

п

у

60

30

22

25

14

17

15

11

10

13

9

14

12

13

10

13

354.41

147.21

98.11

116.10

53.30

69.49

58.60

38.05

33.22

48.11

28.53

53.30

43.02

48.11

33.22

48.11

17

18

19

20

21

22

23

24

25

26

27

28

29

30

31

32

я

ы

з

ь,ъ

б

г

ч

й

х

ж

ю

ш

ц

щ

э

ф

9

5

6

14

6

8

6

2

4

4

0

4

0

0

0

0

28.53

11.61

15.51

53.30

15.51

24.00

15.51

2.00

8.00

8.00

0.00

8.00

0.00

0.00

0.00

0.00

M = 356     ∑ mlog2m = 1460.85

 

I = 1460.85 : 356 = 4.1        S = log2356 – 4.1 = 4.37

 

R = 4.1 : 4.37 = 0.94

 

 Аналогичные расчеты выполнены для случайной выборки поэтических произведений в лице четырнадцатистиший А.С.Пушкина, четверостиший М.Ю.Лермонтова и восьмистиший М.И.Цветаевой, результаты которых представлены в таблице 7.

 

Таблица 7 – Значения  MNI,  S,  R  и границы центрального

интервала случайной выборки поэтических произведений

 

Поэтические
произведения

M

N

Центральный
интервал

S

R


Лермонтов М.Ю.
Парус

1-е четверостишие

2-е четверостишие

3-е четверостишие

 

Цветаева М.И.

Мне нравится, что вы
больны не мной

1-е восьмистишие

2-е восьмистишие

3-е восьмистишие

 

Пушкин А.С.

Евгений Онегин

1-е четырнадцатистишие

2-е четырнадцатистишие

3-е четырнадцатистишие

 

 

 

 

99

95

110

 

 

 

 

259

244

250

 

 

 

356

349

338

 

 

 

23

23

26

 

 

 

 

27

29

27

 

 

 

27

28

30

 

 

 

10 – 43

10 – 41

11 – 48

 

 

 

 

17 – 115

16 – 108

16 – 111

 

 

 

19 – 159

19 – 156

19 – 151

 

 

 

2.56

2.62

2.52

 

 

 

 

3.74

3.79

3.79

 

 

 

4.10

4.12

4.10

 

 

 

 

4.07

3.95

4.26

 

 

 

 

4.28

4.14

4.18

 

 

 

4.37

4.32

4.30

 

 

 

0.63

0.66

0.59

 

 

 

 

0.87

0.92

0.91

 

 

 

0.94

0.95

0.95

 

 

Анализ этой таблицы показывает, что все отобранные случайным образом поэтические произведения находятся в области центрального интервала и относятся к синергетичному типу систем. Значения R-функции при этом, по мере увеличения длины текста, статистически возрастают, приближаясь к единице. 

 

Закон структурной организации

Совместное рассмотрение приведенных результатов оценки структурной организации различных систем с помощью информационно-синергетических функций хаоса и порядка показывает, что в общей совокупности систем, независимо от их природы, проявляются одни и те же закономерности. К таким закономерностям относится принадлежность большинства систем к синергетичному типу и приближение значений R-функции к единице по мере их развития. Это наводит на мысль о том, что в природе действует статистический закон структурной организации дискретных систем, который регулирует антагонистические взаимоотношения хаоса и порядка таким образом, чтобы системы стремились находиться в пределах центрального интервала значений N, а их R-функция в процессе эволюции приближалась к единице. Иначе говоря, в соответствии с этим законом, структурная эволюция дискретных систем направлена в сторону равновесия хаоса и порядка.

Мнения о том, что в природе должны существовать подобного рода законы, так сказать антиэнтропийного характера, неоднократно высказывались различными учеными [11,12,13,14]. Так, например, академик Н.М.Амосов в конце жизни писал: «Вектор эволюции» направлен в сторону усложнения систем. Правда, пределы возможного усложнения ограничиваются какими-то условиями» [13]. В свете изложенного материала к этим ограничительным «какими-то условиям» относится правая граница центрального интервала, за которой начинается необратимое преобладание хаоса над порядком и чего, как мы видели, системы в своем подавляющем большинстве избегают.

Невольно возникает вопрос о том, почему в соответствии с указанным законом системы в процессе своей эволюции должны стремиться попасть в центральный интервал, где хаос и порядок уравновешивают друг друга. Причем это эволюционное движение к равновесию хаоса и порядка, как можно видеть из анализа приведенных примеров природных систем, может осуществляться с различных сторон, – со стороны левого интервала порядка, и со стороны правого интервала хаоса. Так, электронные системы атомов химических элементов попадают в центральный интервал из левого интервала порядка (см. рисунок 3), а пауки плетут свои паутины таким образом, что их структура все время упорядочивается и они переходят из правого интервала хаоса в центральный интервал.  (В контексте модели паутиновых систем, после первого витка спиралевидной нити (см. рисунок 6) количество частей паутины равно числу ее элементов и преобладание хаоса над порядком является максимальным.)

Естественным ответом на поставленный вопрос выглядит представление о том, что только в центральном интервале системы могут достигать своего максимального уровня развития, которому соответствует равенство хаоса и порядка. Чтобы показать это, введем в рассмотрение D-функцию развития[8], равную произведению друг на друга функций хаоса и порядка:

 

                                                                        (12)

 

В силу того, что произведение двух неотрицательных чисел с постоянной суммой является максимальным, когда числа равны, максимальное значение D-функция (12) будет иметь тогда, когда . То есть:

                                                         (13)

 

Таким максимальным значением функции развития (13) обладают все паутиновые системы, а также асимптотически приближаются к нему в своем развитии системы натурального ряда, к которым в плоскости электронов относится периодическая система химических элементов в целом.

Так как значения D-функции тем больше, чем меньше отличаются друг от друга значения  и S, то из анализа информационного поля отражения дискретных систем (см. рисунок 2) следует, что ее максимальные и минимальные значения  и  в левом и правом интервалах значений N имеют различные выражения:

Левый интервал:

                                           (14)

                                           (15)

 

Правый интервал:

                                           (16)

                                           (17)

 

В центральном интервале по линии  bf  имеет место равенство , поэтому здесь  выражается формулой (13). Минимальные значения D-функции, в свою очередь, в левой части центрального интервала равны  левого интервала (15), а в правой части, –  правого интервала (17).

Графики функций (13) – (17) в своей совокупности оконтуривают область возможных значений D-функции при фиксированном М, и тем самым образуют диаграмму, представленную на рисунке 7. По аналогии с информационным полем отражения будем называть эту диаграмму информационным полем развития дискретных систем.

Рисунок 7. Информационное поле развития дискретных систем

( MA = 118 )

 

Приведенная диаграмма наглядно подтверждает сделанное предположение о том, что только в центральном интервале значений N системы могут достигать своего максимального уровня развития, которому соответствует равенство хаоса и порядка. Из анализа диаграммы также следует, что системам, достигшим своего максимально возможного развития при данном М, для того, чтобы развиваться дальше, необходимо увеличивать количество своих элементов, оставаясь при этом в центральном интервале.

Таким образом, можно констатировать, что сущность статистического закона структурной организации дискретных систем заключается в том, что он направляет структурную эволюцию природных систем в сторону их максимально возможного развития.

 

Заключение

В статье показана несостоятельность традиционных взглядов на соотношение в структуре дискретных систем хаоса и порядка и предложено оценивать последние с помощью синергетической теории информации. При этом обосновано, что разумной мерой структурного порядка является аддитивная негэнтропия отражения , а мерой хаоса – энтропия отражения S. Также предложено оценивать структурную организацию систем с помощью R-функции, которая представляет собой отношение меры порядка  к мере хаоса S. В своей совокупности информационно-синергетические функции  дают в руки исследователя принципиально новый аппарат структурного анализа дискретных систем, в рамках которого все системы, в зависимости от общего количества их элементов и числа частей, классифицируются как упорядоченные, синергетичные и хаотичные.

С помощью указанных информационно-синергетических функций хаоса и порядка проведен структурный анализ таких различных по своей природе систем, как электронные системы атомов химических элементов, белковые молекулы, паутины пауков и поэтические произведения известных поэтов. Совокупные результаты этого анализа показали, что в структурной организации различных систем живой и неживой природы наблюдаются одни и те же статистические закономерности, согласно которым хаос и порядок в структуре систем стремятся уравновешивать друг друга. На этом основании сделано предположение о существовании в природе статистического закона структурной организации, в соответствии с которым развитие дискретных систем идет таким образом, чтобы их R-функция стремилась к единице.

Около сорока лет назад философ Л.А.Петрушенко, в контексте распространения понятия энтропии за пределы термодинамики, писал о том, что «закон, который обуславливает тенденцию к отмиранию, гибели, дезорганизации, относительно давно известен. Это закон возрастания энтропии. Напротив, закон, обуславливающий другую, антиэнтропийную тенденцию, до сих пор остается неизвестным» [11, с.257]. Не исключено, что таким антиэнтропийным законом является указанный закон структурной организации.

Для подтверждения этого требуется проведение дополнительных исследований соотношения хаоса и порядка в структуре систем различной природы. Особый интерес при этом представляет анализ всей совокупности известных в настоящее время белковых молекул и генетического кода, который может быть представлен в виде текста с “буквами” из аминокислот. Заслуживают также внимания структурно-лингвистические исследования, в области которых предложенный аппарат оценки хаоса и порядка открывает новые возможности для формализованного сравнительного анализа, как различных текстов, так и языков в целом. Перечисление областей возможного приложения синергетической теории информации, в формате оценки хаоса и порядка, можно продолжать, но это будет только лишний раз свидетельствовать о том, что впереди видится большая исследовательская работа.

  

Литература

1.      Шеннон К. Работы по теории информации и кибернетике. – М.: Изд. иностр. лит., 1963. – 830с.

2.      Шредингер Э. Что такое жизнь? Точка зрения физика. – М.: Атомиздат, 1972. – 88с.

3.      Винер Н. Кибернетика, или управление и связь в животном и машине. – М.: Наука, 1983. – 344с.

4.      Мещеряков А.С., Улыбин С.А. Термодинамика. Феноменологическая термомеханика. – М.: Химия, 1994. – 348с.

5.      Вяткин В.Б. Синергетическая теория информации. Часть 1. Синергетический подход к определению количества информации // Научный журнал КубГАУ [Электронный ресурс]. – Краснодар: КубГАУ, 2008. – №44(10). Режим доступа: http://ej.kubagro.ru/2008/10/pdf/12.pdf

6.      Вяткин В.Б. Синергетическая теория информации. Часть 2. Отражение дискретных систем в плоскости признаков их описания // Научный журнал КубГАУ [Электронный ресурс]. – Краснодар: КубГАУ, 2009. – №45(1). Режим доступа: http://ej.kubagro.ru/2009/01/pdf/12.pdf

7.      Вяткин В.Б. Синергетическая теория информации. Часть 3. Информационные функции и энтропия Больцмана // Научный журнал КубГАУ [Электронный ресурс]. – Краснодар: КубГАУ, 2009. – №46(2). Режим доступа:  http://ej.kubagro.ru/2009/02/pdf/11.pdf

8.      Вяткин В.Б. Синергетическая теория информации: общая характеристика и примеры использования. // Наука и оборонный комплекс – основные ресурсы российской модернизации. Материалы межрегиональной научно-практической конференции. – Екатеринбург: УрО РАН, 2002. – С. 361-390.

9.      Кнунянц И.Л. Белки // Глазами ученого. – М.: Изд. АН СССР, 1963. С. 529 – 551.

10.   Яглом А.М., Яглом И.М. Вероятность и информация. – М.: Наука, 1973. – 512с.

11.  Петрушенко Л.А. Самодвижение материи в свете кибернетики. – М.: Наука, 1971. – 299с.

12.  Седов Е.А. Одна формула и весь мир. Книга об энтропии. – М.: Знание, 1982. – 176с.

13.  Амосов Н.М. Мировоззрение [электронный ресурс]. – Режим доступа: http://www.icfcst.kiev.ua/AMOSOV/amosov_r.html

14.  Луценко Е.В. Универсальный информационный вариационный принцип развития систем. // Научный журнал КубГАУ [Электронный ресурс]. – Краснодар: КубГАУ, 2008. – №41(07). Режим доступа: http://ej.kubagro.ru/2008/07/pdf/10.pdf

 


Сноски

[1] Согласно работам [5,6] синергетической является информация, которая существует вне связи с управлением.

[2] Здесь и далее, значения аддитивной негэнтропии и энтропии отражения имеют размерность [бит отражения]. Подробнее об этой единице измерения информации
см. [6].

[3] Название функции дано по первой букве английского слова reflection, что в переводе на русский язык означает отражение.

[4] Для членов последовательности N = 1, 2, …, M  определяются  и , и в качестве значения N, соответствующего точке f, принимается то значение, после которого .

[5] При Z = 1, 2, 3, 4 , 5 центральный интервал значений N как таковой не существует.

[6] Анализу графиков R-функции электронных систем атомов химических элементов в дальнейшем будут посвящены специальные работы автора.

[7] При составлении рисунка 6 использовались фотографии, взятые на следующих сайтах:

6б - http://www.photosight.ru/photos/7954

6в - http://becti.net/world/23354-najjdena-pautina-vremen-dinozavrov.html

6г - http://allday.ru/2008/04/06/geometrija_sovershenstva__pautina.html

 

[8] Название функции дано по первой букве английского слова development, что в переводе означает развитие.

 
Locations of visitors to this page


Hosted by uCoz