СИСТЕМНЫЕ ОБРАЗОВАНИЯ: ИНФОРМАЦИЯ И ОТРАЖЕНИЕ
Вяткин В.Б.
ВВЕДЕНИЕ В СИНЕРГЕТИЧЕСКУЮ ТЕОРИЮ ИНФОРМАЦИИ
Обновленное изложение теории опубликовано в "Научном журнале КубГАУ" по адресу:
http://ej.kubagro.ru/a/viewaut.asp?id=762
1.
Проблема оценки негэнтропии
отражения
системных объектов
Первоначальной задачей синергетической теории информации является оценка количества информации, отражаемой относительно друг друга двумя взаимосвязанными системными объектами. Постановка этой задачи выглядит следующим образом.
Пусть дана некоторая система D (рис. 1), представленная конечным множеством элементов , среди которых по отличительным признакам и выделены три подмножества , и , образующих, соответственно, системные объекты , и .
Рис. 1. Модели
взаимосвязи системных объектов А
и В в составе системы D
а - модель отсутствия
взаимосязи; б, в ,г - модель
частичной (статистической)
взаимосвязи;
д - модель полной
(взаимно-однозначной) взаимосвязи
Считается, что системные объекты A и B непосредственно взаимосвязаны между собой, если (рис. 1б,в,г,д). При этом системный объект K выступает в качестве связующего объекта. В противном случае, когда (рис. 1а), между системными объектами A и B существует только косвенная взаимосвязь, заключающаяся в том, что как A, так и B принадлежат одной и той же системе D. Количество элементов в составе каждого из системных объектов A, B, K равно , соответственно.
Требуется определить чему равно количество информации , отражаемой системными объектами A и B относительно друг друга, как целостного образования, при наличии между ними непосредственной взаимосвязи. Косвенная взаимосвязь при этом во внимание не принимается. Иначе говоря, нужно ответить на вопрос, – в какой мере один системный объект, как единое (неделимое) целое, воспроизводится через непосредственно взаимосвязанный с ним другой системный объект, также рассматриваемый как единое целое.
С гносеологической точки зрения получение информации может быть представлено в виде следующего 3-х этапного процесса. – На первом этапе система D рассматривается в плоскости признака (или ) и все элементы , обладающие признаком выделяются в виде множества , которое воспринимается как системный объект (рис. 2а). На втором этапе система D рассматривается в плоскости признака и, аналогично первому этапу, все элементы , обладающие признаком , выделяются в виде множества , принимаемого за системный объект (рис. 2б).
Рис. 2. Система D и системные объекты А, В, K в плоскостях признаков и
После того, как в каждой из плоскостей и выделены соответствующие системные объекты A и B познающий субъект находится в состоянии неопределенности относительно существования между ними непосредственной взаимосвязи. Рассматривая на третьем этапе познания системные объекты A и B в совмещенной плоскости признаков и , познающий субъект выявляет третий системный объект (рис. 2в) и тем самым снимает (ликвидирует) указанную неопределенность и получает информацию , которую системные объекты A и В отражают относительно друг друга как целостного образования.
Так как синонимом неопределенности чего-либо, а также отсутствия или недостатка знаний (информации) о чем-либо в настоящее время принято считать энтропию [19], то информацию , для отличия от других видов информации, будем называть негэнтропией отражения системных объектов [20]. То есть, негэнтропия отражения представляет собой информацию об одном системном объекте, отраженную через непосредственно взаимосвязанный с ним другой системный объект.
Поясним сказанное следующими примерами.
Пример 1. Пусть в некотором избирательном органе власти (система D), на основе единства политических взглядов (отличительный признак , плоскость ), образована фракция депутатов “А” в количестве m(A) человек (системный объект A). Проводится поименное голосование по вопросу “В”. При подведении итогов голосования выясняется, что “за” (отличительный признак , плоскость ) проголосовало m(B) депутатов (системный объект B). Если теперь познающий субъект (аналитик), анализируя результаты голосования, выявит m(K) депутатов, которые, являясь членами фракции “А”, проголосовали “за” (совмещенная плоскость , связующий объект K), то он получит информацию (негэнтропию отражения ), которую группа депутатов, проголосовавших “за” и фракция “А” отражают относительно друг друга как целостного образования.
Пример 2. Пусть по какому-либо району, где проводятся геологоразведочные работы, имеется представительная совокупность образцов горных пород (система D). Поставлена задача – выяснить, в какой мере взаимосвязаны между собой две группы образцов, в первую из которых входят образцы, имеющие плотность выше среднего значения по всей совокупности, а вторую группу составляют образцы, обладающие магнитной восприимчивостью также превосходящей среднее значение по всей совокупности образцов. Очевидно, что решение поставленной задачи будет осуществляться в три этапа. – На первом этапе сначала определяется плотность каждого образца и вычисляется среднее значение по всей совокупности, а затем выделяется множество образцов, обладающих повышенной плотностью (системный объект A). На втором этапе, аналогично первому, выделяется множество образцов, имеющих повышенную магнитную восприимчивость (системный объект B). Так как исследования первых двух этапов работ проводятся в двух различных плоскостях физических свойств горных пород и не зависят друг от друга, то после их окончания сохраняется неопределенность относительно непосредственной взаимосвязи выделенных множеств образцов. Данная неопределенность снимается в результате работ третьего этапа, заключающихся в совместном рассмотрении обоих выделенных множеств в совмещенной плоскости двух физических свойств ( и ) с целью выявления и оценки непосредственной взаимосвязи между ними. При этом в качестве первоочередного решается вопрос о существовании группы образцов (системного объекта K), обладающих как повышенной плотностью, так и повышенной магнитной восприимчивостью. Если такая группа выявлена (), то делается заключение, что между множеством образцов с повышенной плотностью и множеством образцов с повышенной магнитной восприимчивостью существует непосредственная взаимосвязь. В противном случае, если , констатируется, что такая взаимосвязь отсутствует. Описанное снятие неопределенности в отношении непосредственной взаимосвязи двух множеств образцов горных пород, выделенных в различных плоскостях физических свойств, сопровождается получением информации (негэнтропии отражения), которую каждое множество образцов отражает относительно другого множества как единого целого. При этом, очевидно, что величина негэнтропии отражения является одним из аспектов решения первоначально поставленной задачи.
Актуальность количественного определения негэнтропии отражения и основанного на ней анализа системных образований во многих областях знания не вызывает сомнений. Вместе с тем констатируется, что традиционные подходы к количественной оценке информации, изначально ориентированные на решение задач технической связи, не дают удовлетворительных способов такого определения [21]. (Эти подходы, представляющие информацию, как снятую неопределенность выбора одной из множества возможностей, при равенстве A = B = K, то есть при наиболее сильной взаимосвязи системных объектов А и В, показывают, что ). Более того, попытки адаптировать математический аппарат существующей теории информации к анализу взаимосвязи системных образований в областях знания, далеких от технических коммуникаций, могут приводить к неустойчивым и даже противоречивым результатам [22]. Отмеченные негативные моменты обусловлены тем, что математические основы теории информации традиционно разрабатывались под эгидой того, что информация атрибутивно связана с процессами управления и представляет собой снимаемую неопределенность выбора одной из множества возможностей [23]. Другой же вид информации, объективно существующий в природе независимо от управления и генетически предшествующий ему [24], при этом остался в тени. К этому виду информации относится и негэнтропия отражения системных объектов, которая также может быть проинтерпретирована как снимаемая неопределенность, но только уже не выбора, а отражения одного системного объекта через непосредственно взаимосвязанный с ним другой системный объект [25].
Приведенные факты свидетельствуют о необходимости разработки новых подходов к количественному определению информации, изначально ориентированных на исследование информационных аспектов отражения системных образований и, как следствие, создание на их основе новых разделов в общей теории информации [26].
Литература и примечания к разд. 1
19. См., например: Волькенштейн М.В. Энтропия и информация. М.: Наука, 1986; Шамбадаль П. Развитие и приложение понятия энтропии. М.: Наука, 1967 и др.
20. Термин негэнтропия не имеет пока достаточно широкого распространения в научной литературе, поэтому целесообразно остановиться на его общей интерпретации. – Уже сам факт наличия у слова энтропия отрицательной приставки нег свидетельствует о том, что за понятием негэнтропия скрывается некоторая сущность, противоположная сущности энтропии и отрицающая ее, так сказать, некая отрицательная энтропия. Первым понятие отрицательная энтропия употребил в 1945г. известный австрийский физик Э. Шредингер, который, анализируя с термодинамических позиций жизнедеятельность органического мира, пришел к выводу, что биологическим системам для своего существования необходимо извлекать из окружающей среды отрицательную энтропию, чтобы компенсировать внутреннее производство энтропии, и тем самым тормозить свое движение в сторону термодинамического равновесия, соответствующего состоянию смерти. (Шредингер Э. Что такое жизнь? Точка зрения физика. М.: Атомиздат, 1972) Впоследствии Л. Бриллюэн, исследуя превращения (деградации) одних видов энергии в другие, для краткости отрицательную энтропию стал называть негэнтропией и ввел этот термин в теорию информации, сформулировав свой негэнтропийный принцип информации: “Информация представляет собой отрицательный вклад в энтропию” (Бриллюэн Л. Научная неопределенность и информация. М.: Мир, 1966. С. 34.) Сейчас термин негэнтропия употребляется главным образом в двух значениях: как количество информации, равное разности между начальной (до получения сообщения) и конечной (после получения сообщения) энтропий, и как величина, обратная энтропии, выражающая упорядоченность материальных объектов. (См., например: Кондаков Н.И. Логический словарь-справочник. М.: Наука, 1976.) В настоящей работе под термином негэнтропия, в общем случае, понимается информация о “чем-либо”, отраженная (воспроизведенная) через “что-либо”, и в этом отношении характеризующая отражение исследуемых объектов со стороны организованности, упорядоченности, определенности (в противоположность энтропии, как мере хаотичности, рассеянности, неопределенности). Короче говоря, в наших исследованиях, негэнтропия отражения – это отраженная информация. При этом количественная оценка негэнтропии осуществляется независимо от оценки энтропии и, более того, генетически предшествует последней. В отношении же словосочетания негэнтропия отражения следует сказать, что оно употребляется прежде всего для того, чтобы отличать негэнтропию, как меру упорядоченности отражения, от других ее интерпретаций.
21. Вяткин В.Б. Указ. соч. 2004 (канд. дисс.); Он же: Указ. соч. 1998.
22. См., например: Вяткин В.Б. Информационные прогнозно-геологические антиномии // Компьютерное обеспечение работ по созданию государственной геологической карты Российской Федерации: Материалы 5-го Всероссийского совещания-семинара МПР РФ. Ессентуки, 1998; Он же: Указ. соч. 2004 (автореферат канд. дисс.); Он же: Указ. соч. 1993. Примечательно также высказывание Эшби по вопросу использования теории Шеннона в биологических науках: “Введенная Шенноном мера и различные важные теоремы, в которых она используется, основаны на определенных допущениях. Эти допущения обычно выполняются в технике телефонной связи, но их выполнение отнюдь не столь обычно в биологической работе … Следовательно, результаты Шеннона должны применяться к биологическому материалу только после тщательной проверки их применимости … Выводы в этих вопросах требуют большой осторожности, ибо самое незначительное изменение условий или допущений может превратить высказывание из строго истинного в абсурдно ложное” (Эшби У.Р. Введение в кибернетику. М.: изд. иностр. лит., 1959. С. 253-254 (разрядка моя – В.В.)).
23. См., например: Винер Н. Кибернетика или управление и связь в животном и машине. М.: Сов. радио, 1958.; Хартли Р.В.Л. Указ. соч.; Шеннон К. Указ. соч.
24. Урсул А.Д. Отражение и информация. М.: Мысль, 1973.; Он же: Проблема информации в современной науке. М.: Наука, 1975.
25. Первым связал понятие информация с категорией отражение в 1959 году И.Б. Новик, сказав, что “многое в теоретическом обосновании кибернетики прояснится, если связать понятие информации с идеей Ленина о свойстве отражения, присущем материи”. (Новик И.Б. Ленин о единстве мира. В кн.: Великое произведение воинствующего материализма. М.: Соцэкономиздат, 1959.)
26. О необходимости дальнейшего развития теории информации на основе взглядов, отличающихся от традиционных идей Шеннона, Винера и Хартли, свидетельствуют также высказывания различных исследователей феномена информации. Например: “Теория информации в кибернетике напоминает болото, поверх которого заботливыми руками математиков и техников настланы достаточно твердые доски. Ниже Шенноном и Винером, насыпан плотный слой теорий и постулатов. Еще ниже находится мох догадок. И, наконец, там, совсем глубоко, – трясина гипотез, где все абсолютно шатко и сверкает ледяная вода таких широких обобщений и глубоких абстракций, которые еще неизвестны современной науке.” (Петрушенко Л.А. Самодвижение материи в свете кибернетики. М.: Наука, 1971. С. 52); “Столь общий разнообразный объект как информация, не может допускать единого метода численного измерения, а идеи Шеннона обоснованы лишь в применении к той важной, но все же ограниченной ситуации, когда рассматриваются оптимальные методы кодирования и декодирования информации в целях ее передачи по каналам связи или ее хранения.” (Добрушин Р.Л. Теория информации (комментарии). В кн.: Колмогоров А.Н. Теория информации и теория алгоритмов. М., 1987. С. 254); “Понятия информации, которые изолируются от связи с категорией отражения, на наш взгляд не будут далее развиваться, они образуют тупиковые линии развития.” (Урсул А.Д. Указ. соч., 1975. С. 30). Примечательно также высказывание самого Шеннона, с известной долей скептицизма относившегося к применению его теории в областях, далеких от технической связи: “Очень редко удается открыть несколько тайн природы одним и тем же ключом. Здание нашего несколько искусственно созданного благополучия слишком легко может рухнуть, как только в один прекрасный день окажется, что при помощи нескольких магических слов, таких как информация, энтропия, избыточность…, нельзя решить всех нерешенных проблем.” (Шеннон К. Указ. соч. С. 668).