Некоторые особенности информационных взаимодействий

Некоторые особенности информационных взаимодействий

С.Д. Авдеев, В.П. Аванесян
НТВП Райдуга


Термин информация обычно используется в различных смысловых значениях. На бытовом уровне под информацией понимается любое знание о чем-либо или передача и обработка данных в системах связи и вычислительной технике. Однако имеется множество определений информации, относящихся к различным сферам деятельности человека. Различные исследования свидетельствуют о том, что единого универсального определения информации не существует [1,2].

Возможно, что происходит смешение понятий. Под информацией понимают и двоичный код, как набор нулей и единиц, и смысл сообщения, хотя набор нулей и единиц может быть бессмысленным, а смысл сообщения может измениться полностью от одного символа или одного бита. В данной работе мы не будем вводить своего определения информации, лишь только отметим, что мы не рассматриваем различные системы кодирования, а информацию понимаем как тот или иной смысл. Поэтому далее термин информация следует понимать как смысловая информация.
Современные научные представления об информации основываются на представлении о ее нематериальности.

Однако это нематериальное можно передавать, принимать, оценивать. Никто не спорит, что с помощью информации можно изменять мир. Информацией можно даже убить. Но все это принято считать прерогативой сознания. Станислав Лем в своем философском труде "Сумма технологии"[3], отмечает, что с помощью информации можно добиться того же действия, что и от материального предмета. Например, можно ударить человека камнем и он упадет, а можно приказать ему лечь.

Лем делает вывод о том, что действие информации носит вероятностный характер, так как человек может лечь, но может и не сделать этого, хотя от камня человек упадет наверняка. На наш взгляд этот вывод не верен, так как предполагает процесс передачи информации. Тогда в соответствии с Шенноновской теорией информации передача сигнала может сопровождаться помехами и можно определить вероятность прохождения сигнала в зависимости от уровня помех.

Мы же считаем, что в природе нет передачи информации. Есть постоянное информационное взаимодействие, которое сопровождается генерацией новой информации, чем-либо отличающейся от начальной. На первый взгляд кажется, что это эквивалентные понятия - передача и генерация информации.

Но мы попытаемся показать, что это не так.
Во-первых, если бы информация передавалась, то у источника информации ее количество уменьшалась бы. Поэтому под "передачей" информации обычно подразумевают абсолютное копирование ее, что принципиально невозможно, хотя бы потому, что сама среда, посредством которой передается информация, постоянно меняется.
Во-вторых, при "передаче" информации, мы могли бы уменьшить влияние ошибки до того уровня, при котором ею можно было бы пренебречь. В этом случае переданная информация была бы равна полученной. Это можно сделать, если информацию описывать двоичным кодом (как в теории информации).

Тогда можно говорить об идентичности неких информационных блоков при совпадении их отображений в наборах символов (0,1). Но попытка передачи смысла сталкивается с проблемой целостности информации. Если изменение одного бита может изменить смысл, то при информационном взаимодействии необходимо обеспечить устойчивость. Изменение смысла сродни переходу системы в другое устойчивое состояние. При генерации информации задействуется уже имеющаяся информация в системе. Система переходит в новое состояние, характеризуемое новой информацией, которая включает старую информацию и некоторое приращение информации. Если бы в системе не было информации, которую можно задействовать при взаимодействии, то новой информации не появилось бы. Однако обычно в системах, вступающих во взаимодействие, имеется та или иная информация данного уровня, которая и обеспечивает изменение. Можно отметить - отсутствие новой информации свидетельствует о том, что взаимодействие не произошло.

Поясним это на примере. Известная фраза "Казнить нельзя помиловать" меняет смысл от положения запятой. Но произнесенная одним человеком для другого она может приобрести смысл от контекста ситуации, или от той информации, которая уже была до этого. Информация, известная на настоящий момент, называется априорной информацией.
Вопросы информационных взаимодействий изучены на настоящий момент крайне мало. В то же время именно информационные взаимодействия определяют картину мира и являются причинами всех событий. В настоящей работе мы попытаемся показать, что это так.

Для начала рассмотрим насколько смысловая информация связана только с сознанием человека. Н. Моисеев считал, что необходимость введения понятия информации возникает лишь при изучении живых объектов, способных к целенаправленным действиям, во всех остальных случаях можно обойтись без термина информация - для этого достаточно языка физики и химии [4].

Л. Цымбал [5] ввел свою классификацию информации, разделив ее на: объективную, присущую живой материи; генетическую, присущую живым существам; идеальную, производимую человеком. Наличие объективной информации, неотделимой от материи, Цымбал обосновывает тем, что раз имеются природные структуры, находящиеся в движении, то есть и информация почему они так устроены и каким образом изменяются. Он отмечает, что важнейшим свойством информации является память.

Важнейшей проблемой современной физики является проблема необратимости, то есть наличие стрелы времени. Все фундаментальные уравнения физики обратимы во времени. Реальные же процессы, в своем большинстве, необратимы.

Для преодоления этого противоречия Н. Козырев предложил интересную теорию времени как субстанции [6]. У него время представляет поток некоторой субстанции, которая переводит причины в следствия. Множество экспериментов, которые провел Козырев с соратниками, подтверждают справедливость теории.

Однако имеются эксперименты, которые выходят за ее рамки. Например эксперименты с крутильными весами, к которым подносились срезанные растения. В подавляющем большинстве опытов растения давали отклонения крутильных весов. Характерно, что значительное увеличение количества растений в опыте практически ... не повышает эффекта. Объяснить эти результаты можно, если предположить, что структура пространства-времени зависит от информации.

Различие между прошлым и будущим на микроуровне И. Пригожин получил вводя эффект памяти во взаимодействие молекул. Им постулировалось наличие потока корреляций между молекулами, когда последующие взаимодействия зависят от предыдущих [7]. Поток корреляций можно ассоциировать с потоком информации, когда молекулы при столкновении обмениваются не только энергией, но и информацией.

Таким образом можно сделать вывод, что информация есть объективная составляющая материи, которая может и не зависеть от сознания человека. Л. Цымбал показал, что все три составляющие информации (объективная, генетическая, идеальная) взаимосвязаны и взаимно влияют друг на друга [5].

Рассмотрим какие свойства есть у информации. Первое свойство мы уже отметили - это свойство быть содержимым памяти. Цымбал подчеркивает, что это есть "возможность ее отрыва от объекта отражения и продолжение своего независимого движения". Мы же считаем, что имеет место процесс генерации информации при взаимодействии одних объектов с другими. И память есть возможность порождать новую информацию с использованием старой. Как мы уже отмечали, то, что мы называем передачей информации, на самом деле является, как минимум, копирование ее. У источника информации количество информации не уменьшается, а даже увеличивается в случае наличия любого взаимодействия.

Второе свойство информации - многомерность. Многомерность здесь понимается не в пространственном смысле, как множество пространственных координат, а как многопараметрическое качество, связанное с множественностью параметров восприятия и отображения информации. Например, существительное стол является четырехмерным объектом, так как можно построить ряд из различных типов столов: обеденный стол, письменный стол, журнальный столик и т.д.

Каждый из этого ряда тип стола представляет трехмерный объект, а ряд этих столов будет четвертой координатой. Но этому четырехмерному объекту стол мы можем дать определение, то есть описать его с помощью других слов так, что каждый поймет о чем идет речь. В то же время есть слова, размерность которых невозможно оценить, так как им невозможно дать однозначные определения. Это слова Любовь, Вера, Надежда, Сила и некоторые другие. На наш взгляд к таким словам относится и термин Информация. Слова определения являются информационными ограничителями и понижают размерность информации.

Для того, чтобы глубже понять многомерность с физической точки зрения рассмотрим соотношение между энергией и информацией. В физике известны два принципа, которым удовлетворяет понятие устойчивости системы. Для энергии это принцип минимума энергии. Устойчивое состояние системы соответствует минимуму энергии. Хакен [8] показал, что в неравновесных системах для информации можно ввести аналог принципа Джейнса [9]. Кратко принцип Джейнса формулируется следующим образом - наиболее вероятное состояние системы соответствует максимуму информационной энтропии. По аналогии, предложенной Хакеном, наиболее устойчивому состоянию неравновесной системы соответствует максимум ее информации.

Рассмотрим геометрическую аналогию. Для плоской фигуры также можно реализовать принципы минимума и максимума. Минимальный периметр при максимуме площади соответствует кругу. Для объема это шар и площадь поверхности с объемом шара соответственно. Но периметр от площади и объем от поверхности отличаются размерностью. Их разница равна 1. Примером поверхности одновременно содержащей минимумы и максимумы в одних точках является седловая поверхность. Но на этой поверхности функции с минимумами и функции с максимумами развернуты относительно друг друга на 90 градусов.

Если перенести эту аналогию на физические системы и принять во внимание, что энергия распределяется в трехмерном пространстве, т.е. имеет размерность 3, то информация должна иметь размерность не ниже 4. Но тогда мы реально можем наблюдать только трехмерную проекцию или сечение информации (отображение). Вероятно поэтому не созданы трехмерные физические приборы которые могут ее обнаружить.
Рассматривая информационную триаду Цымбала можно предположить, что это три различных отображения информации в трехмерное пространство, что приводит к выводу, что размерность информации не ниже 6.

Но если это так, то мы всегда видим отдельные части целого, то есть отдельные события и факты мы часто не в состоянии объединить в целую картину, и вынуждены придумывать различные логические объяснения причин тех или иных явлений. Различные суеверия - попытка связать события реального мира в единый комплекс. И хотя многие приметы, в которые верят люди, выглядят смешными, за ними стоят многолетние наблюдения и информационные закономерности. Например, тонкая шкурка у лука - к теплой зиме.

Здесь мы начинаем замечать противоречия наших причинно-следственных взглядов на мир. Обычно считается, что более раннее событие является причиной для более позднего. Но не может же лук стать причиной теплой зимы. Значит и лук, и теплая зима информационно связаны вместе и вместе отражают некие другие законы. Очень хорошо на эту тему сказал Козьма Прутков: "Щелкни кобылу в нос, она махнет хвостом". Принцип причинности является следствием нашего восприятия действительности. Существуют такие неравновесные неустойчивые системы, для которых переход из одного состояния в другое происходит от малейшего изменения внешних параметров и становится невозможным выделение причины, так как имеется множество причин.

Вопросы нашего трехмерного восприятия во многом определяют тот круг проблем, с которым постоянно сталкиваются люди. Как говорят, у большинства людей есть две проблемы: где взять еду и как похудеть. Точно также обстоят дела и с информацией. Где взять нужную информацию, и как ее переработать (то есть избавиться от лишней)?
Третьим свойством информации является ее иерархичность, которая заключается в том, что на более высоком уровне локальная информация низшего уровня становится незначимой. Значимость информации на том или ином уровне определяется только уровнем генерации. Так информация сгенерированная на уровне микромира (парой взаимодействующих молекул значима для этих и других ближайших молекул, но незначима для макрообъекта, в состав которого входят эти молекулы).

Но информация более высокого уровня обычно значима для всех микросистем низшего уровня. Мы можем изменить химсостав системы, добавив какого-либо вещества, и все химические взаимодействия молекул изменяться через изменение кинетических коэффициентов. Значимость информации на одном уровне может зависеть от количества взаимодействующих подсистем не этом уровне. Если количество взаимодействующих подсистем велико, то значимость генерации информации одной подсистемой не окажет влияния на подсистему в целом.

Фрактальность информации можно также отнести к свойству информации. Фрактальность - это самоподобие объектов различных уровней иерархии. Причем множество таких объектов имеет дробную размерность. Простейшим и самым популярным фрактальным множество с размерностью 0.65 является Канторово множество, каждый элемент которого состоит из двух отрезков и равного им по длине интервала. Открытие Мандельброттом фрактальных объектов показало, насколько сложными могут быть объекты, возникающие из простых преобразований. Однако в силу фрактальных свойств информации имеются информационные блоки общие для всех уровней иерархии.

Как в рояле у разных октав есть нота ми, так и у всех систем есть частоты, которые могут резонировать с другими кратными частотами. То есть на каждом уровне иерархии мы можем иметь одну и ту же информационную структуру.

В настоящее время имеется несколько моделей номогенеза, использующих различные свойства информации для своего описания. Так В. Жвирблис приводя в своей работе модель вложенных миров Маркова-Шубникова-Эверетта говорит о структуре физического вакуума как о субстрате для хранения бесконечно большого количества информации в распределенной голографической форме [10]. В. Волченко разработал IEV концепцию, где ввел понятие витальности V как отношения количеств информации и энергии
V = I/E.
В IEV концепции рассматривается иерархия информационных структур окружающего мира [11].
Цымбалом разработана математическая модель информативности, описывающая процесс познания, как накопление и усложнение информации [5]. В этой модели вводится понятие сложности, как суммы количества элементов системы и их связей. Однако обычно информационная значимость элементов и их связей неравна. Кроме этого в этой модели рассматривается только один генерируемый поток информации, хотя на практике мы всегда имеем минимум двусторонние потоки.

Используя сформулированные свойства информации мы разработали математическую модель информационных взаимодействий. Рассмотрим двустороннее информационное взаимодействие между двумя сложными системами А и В (рис. 1). На этом рисунке видны две обратные связи. Это означает, что в результате взаимодействия происходят изменения одной системы, которые приводят к изменению другой системы. Исходные предпосылки для этой модели следующие:
1) имеются определенные условия для обмена информацией между системами, а именно
а) контакт систем - системы вступили в контакт, который может реализовываться на вещественном, полевом или информационном уровне;
б) подобие систем - системы информационно подобны, т.е. в системах имеется априорная информация, одинаковая для обеих систем;
в) неодинаковость систем - априорная информация не полностью одинакова, т.е. имеется разность информационных потенциалов;
2) суммарное количество информации I после вступления систем во взаимодействие больше чем имелось у каждой системы до взаимодействия; это означает, что в результате взаимодействия образуется новая сложная система, в которой могут возникать новые информационные качества, отсутствующие в исходных системах или каждая подсистема произвела генерацию новой информации
I = Ia + Ib + dIa + dIb , (1)
где dIa , dIb. - приращение информации в системах;
3) отдельные порции информации могут отличаться по некоторому параметру gi, отражающему способность информации возбуждать генерацию в рассматриваемых системах и всего имеется m типов информации (i = 1,2,3...m), причем рассматриваются не абсолютные значения информационных объемов, а их относительные соотношения
ai = Nai/Na;    (2)
bi = Nbi/Nb;     (3)
Ea = Na/N;       (4)
Eb = Nb/N;        (5)
Nai + Nbi = Ni; (6)
где Nai, Nbi - количество информации типа i генерируемых системами a и b соответственно, N - полное количество квантов информации в обеих системах.
При этом выполняются условия нормировки

Eai = 1; Ebi = 1. (7)

Здесь и далее сумма берется по m, поэтому знак m опускаем.

Из (6) с учетом (2-5) получим

Eaai + Ebbi = ci , (8)

где N = ENi , ci = Ni/N.

Для параметра g введем следующее соотношение

Ea Egaiai + Eb Egbibi = <g>. (9)

При построении модели использован принцип максимума информации, который был сформулирован Джейнсом [9]: "Наиболее вероятным состоянием системы будет состояние, при котором информация максимальна". Информация использовалась в Шенноновском варианте как произведение вероятности на логарифм вероятности

I = - Ea Eailnai - Eb Ebilnbi . (10)

Задачу сформулируем следующим образом: найти максимум функции (10) при ограничениях (1-9). Задача решена методом неопределенных множителей Лагранжа.

В результате нами получено следующее уравнения для вероятности восприятия/генерации информации вида i системой А при ее взаимодействии с системой В и соответственно системой В при ее взаимодействии с системой А:

(11)


(12)


где L - множитель Лагранжа.
Уравнение (11) является обобщением закона информативности Л.А. Цымбала [5]
p = 1/(1+ Dexp(-KX)). (13)
Закон сформулированный Цымбалом имеет некоторые ограничения. Во - первых, этот закон рассматривает одностороннее движение информации. Однако на практике мы имеем двустороннее взаимодействие сложных систем. При этом мы имеем для каждого контакта два генерируемых информационных потока.

Во - вторых Цымбал оценивает сложность системы как сумму количества элементов системы и количества их взаимосвязей. Но не учитывается тот факт, что связи в сложной системе не эквивалентны и могут различаться по значимости, интенсивности, эффективности и другим параметрам.

В нашей модели таких ограничений нет.
Видно, что уравнения (11) и (13) имеют качественно одинаковый вид. Поэтому можно предположить, что следствия из закона информативности Цымбала (13) верны и для наших уравнений (11-12). Параметр g можно отождествить со степенью полноты априорной информации. Видно, что для нашей модели необходимо иметь разные значения этого параметра для разных подсистем. Тогда вероятность генерации будет больше 0.5. Для среднего случая при i = 2, ci = 0.5, Ea = Eb = 0.5, L = 1, gai - gbi = 0.5 получим вероятность генерации объективной информации равной ai = 0.6224593, что совпадает со значением, полученным Цымбалом. Однако следствие 1 мы сформулируем несколько иначе чем Цымбал: Процесс развития сложных систем происходит по принципам самоорганизации, то есть среднестатистическая вероятность генерации объективной информации при взаимодействии сложных систем выше, чем ложной.
Следует заметить, что формулы (11,12) позволяют моделировать динамику изменения информации в системе. При этом множитель Лагранжа L связывается с временем информационного процесса t.

(14)

где Lo значение L при t = 0. Постоянная k выполняет роль кинетического коэффициента с размерностью частоты.

Построенная математическая модель носит во многом качественный характер, так как для большинства случаев информационного взаимодействия невозможно измерить некоторые величины, входящие в нее, но она позволяет отследить основные закономерности информационного взаимодействия и наметить пути повышения его эффективности.
В данной работе не сформулированы другие следствия из полученной нами формы закона информативности. Однако отметим, что объективный характер информации позволяет говорить о ее влиянии на другие компоненты материи - массу и энергию. Но если происходит постоянная генерация информации в процессе взаимодействий, то почему мы не видим последствий переизбытки информации?

Это следствие такого качества информации, как значимость. При производстве однотипной информации значимость ее уменьшается для системы в целом при увеличении количества такой информации. Наблюдается процесс обесценивания информации. Аналогией может служить первый весенний огурец, очень значимый для каждого человека, после долгой зимы. В середине лета много огурцов и каждый из них практически малозначим. Или увеличение капитала на один рубль при исходном капитале в 10 рублей очень значимо, но если у вас 1000 рублей, то увеличение на рубль практически не увеличивает капитал и не значимо.

То есть речь идет об относительном приросте информации.
Механизмы самоорганизации могут быть описаны как повышение плотности информации. Если в системе информация производится со все большей скоростью, то наступает момент, когда система как бы обобщает информацию и переводит ее на другой уровень иерархии. Обычно в физических и химических системах переход на другой уровень обеспечивают подводом энергии (повышение температуры, давления) или вещества (изменение концентрации). Однако, как следует из наших рассуждений, можно попытаться увеличить плотность информации в системе и тем самым вызвать изменение физикохимических параметров системы.

Сотрудниками НТВП Райдуга разработаны специальные концентраторы информации, которые позволяют создавать в материальных носителях высокую плотность информации. На базе таких устройств создана широкая гамма информационных изделий, изменяющих физикохимические параметры веществ. Например, создано энергоинформационное устройство для очистки жидкостей от информационных "загрязнений". Известно, что качество воды определяется не только химическим составом, но и информационной структурой. Так вода Нарзан из скважины по своим качествам отличается от воды с таким же химическим составом, приготовленной искусственно.

У искусственной воды нарушена естественная информационная структура из-за искажений различной природы [12]. Разработанные энергоинформационные устройства позволяют убрать искажения структуры и проявить природные свойства. В проведенных нами экспериментах устранение информационных искажений приводит к изменениям также химического состава.

Так в пробе воды с повышенной концентрацией железа его содержание упало более чем в 2 раза. В три раза упало микробное число.
Следует особо отметить, что эти и другие разработанные энергоинформационные устройства не имеют источников питания, излучения или каких-либо известных полей, поэтому ресурс их работы практически неограничен.

Создание неэнергетических технологий, использующих информационные взаимодействия может коренным образом изменить лицо промышленности, заменив вредные производства на экологически чистые. Надеемся, что дальнейшее развитие теории самоорганизации информационных процессов позволит все шире внедрять эти технологии.

 ЛИТЕРАТУРА
1. Р.Ф. Абдеев, Философия информационной цивилизации, М.: Наука, (1993).
2. К.Д. Бубенков, Философский смысл понятия "информация". Л.: Воен.акад.связи, 1977, Ч.I.34c.; Ч.II. 36с.
3. С. А. Лем. Сумма технологии: Собр. соч. Т.13. М.: Текст, 1996.
4. Н.Н. Моисеев, Современный рационализм, МНЭПУ, Москва (1995)
5. Цымбал Л.А. Синергетика информационных процессов. - М.: Наука, 1995.
6. Н.А. Козырев, Избранные труды, ЛГУ, Ленинград (1991).
7. И. Пригожин, И. Стенгерс, Время, хаос, квант - М.: Прогресс, 1999.-268с.
8. Г. Хакен. Информация и самоорганизация: Макроскопический подход к сложным системам. М.: Мир, 1991.
9. E.T. Jaynes. Information Theory and Statistical Mechanics // Physical Review, v.106, n 4, 1957, p.p. 47-52.
10. В.Е. Жвирблис, Материя и сознание в модели вложенных миров. // Сознание и физическая реальность, т. 1, № 1-2, С. 55-59.
11. В.Н. Волченко, Информационная модель сознания в номогенезе: философский, естественнонаучный и социально-психологический аспекты. // Сознание и физическая реальность, т.4, № 1, 2, 4.
12. С.В. Мякин, Вода: новые представления о качестве, методы структурирования и взаимодействия с организмом человека. // Сознание и физическая реальность, т.5, № 2, С. 61-72.

АННОТАЦИЯ
Рассмотрены некоторые аспекты синтеза новой информации. Предложена математическая модель двусторонних информационных взаимодействий. Приведены примеры практического использования явлений информационных взаимодействий в природе.

SUMMARY
Some aspects of sinteses of new information are investigated. The matimaical model of bilateral information interaction is suggested. The are given examples of the practical use of the information interactions phenomena in nature.

 




ООО «Компьютерия», 119334 г. Москва, Ленинский проспект, дом 45
ИНН: 7730533653, ОГРН: 1057749322620
(499) 135-33-81, +7-916-164-74-74, mindmachine@bk.ru
о проекте, прайс