You get a bonus - 1 coin for daily activity. Now you have 1 coin

Закон сохранения информации - 2: Physics Information

Lecture



Это окончание невероятной информации про физика информации.

...

Измерение информации традиционно связывается с кибернетическими системами (биологическими и искусственными). Однако нельзя отрицать, что кибернетические системы являются одновременно и физическими системами, раз они подчиняются общим физическим законам (в том числе, второму началу термодинамики) и состоят из тех же химических элементов (и отчасти веществ), что и неживая природа. Отсюда следует, что в кибернетической системе должна постоянно происходить борьба между порядком (управляемостью, несвободой, знанием, жизнью с ее неравновесностью) и хаосом (неуправляемостью, свободой, незнанием, смертью с ее равновесием). В этом плане необходимо более внимательно отнестись к взаимодействию эволюционного механизма со вторым началом термодинамики и взаимосвязи термодинамической и информационной энтропийных составляющих в рамках общей entropy system .

Example 6 Неумолимая смерть биологических систем воочию свидетельствует о подобных связях и энтропийном дуализме природы каждой системы, общая энтропия которой содержит две составляющих – термодинамическую и информационную как операнды некоего уравнения, пока неизвестного математической физике. Относительно информационной энтропии теория информации утверждает, что в закрытой (замкнутой) системе, изолированной от окружающей среды, энтропия может изменяться в пределах от нуля (одно из состояний достоверно, остальные невозможны) до максимума, зависящего от числа состояний, когда их вероятности одинаковы. В той же системе термодинамическая энтропия никогда не уменьшается. В крайнем случае, она может оставаться постоянной и, соответственно, общая энтропия системы может возрастать, уменьшаться и оставаться постоянной, никогда не достигая нуля.

Приведенный пример – идеализация. Реальная биологическая система (как и любая система небиологического происхождения) проявляет себя в разное время и в разной степени как открытая и закрытая системы одновременно, ибо среда всегда в той или иной мере вносит возмущения в системы, невзирая на их классификацию, придуманную людьми. Закрытые системы независимы друг от друга. Но эта независимость, скорей всего, метафизична. Физична только зависимость систем, совместно обитающих в Универсуме, как зависимы все люди, обитающие на Земле. Информационная энтропия открытого зависимого источника (системы) условна в том смысле, что она определяется при условии известных состояний остальных влияющих источников (систем), входящих в среду обитания зависимого источника. В данном контексте условна и апостериорная энтропия как вычитаемый операнд выражения для количества информации, ибо наблюдатель (субъект, потребитель информации) и наблюдаемый объект (источник информации) в любом опыте взаимозависимы. Полная информационная независимость от среды (как вырожденный случай, когда энтропия становится безусловной) возможна при потере системой адаптации к среде, при подавляющих помехах в каналах связи и управления. Даже если такой вырожденный случай возможен, теплообмен между средой и системой (термодинамику) как одну из примитивнейших форм движения материи исключить невозможно, разве только при абсолютном нуле температур, который недостижим (согласно третьему началу термодинамики). В общем, в философии информации для термодинамики и теории информации открыто общее поле интересов.

Мы рассмотрели вероятностный подход к измерению информации. В современной информатике прикладное значение имеет измерение информации, циркулирующей в каналах связи и управления и хранимой на носителях информации. Для этого чаще используетсякомбинаторный (алфавитный) подход А.Н. Колмогорова, представляющий информацию в виде последовательности знаков и ориентированный на определение длины данной последовательности. Комбинаторная мера количественно ограничивает информационное разнообразие "сверху" числом возможных комбинаций. Там, где есть ограничение сверху, должны быть и механизмы ограничения снизу. Их несколько. Онтологически наиболее значимым является ограничение разнообразия снизу неделимостью информационного кванта, соответствующего двум состояниям (информативность – 1 бит). Меньше (одно состояние) – однообразие с нулевой информативностью. Можно возразить, что рассуждения о минимальной информативности кванта в один бит и неинформативности однообразия суть абстрактные суждения, исходящие из свойств логарифмической функции от аргумента – разнообразия по двоичному основанию логарифма 1 bit = log 2 2. На самом деле логарифмическая мера информации вполне физична.

Пример 7. Психофизический закон Вебера – Фехнера постулирует интенсивность ощущения как величину, пропорциональную логарифму интенсивности физического раздражения. Время реакции на раздражения при числе раздражителей k пропорционально логарифму k. Что есть передача раздражения, как не информационный процесс? Что есть интенсивность ощущения, как не количество информации, полученное в этом процессе? Из теории поиска известно, что число шагов наиболее эффективного по быстродействию двоичного поиска в системе с равновероятными состояниями равно логарифму числа состояний (размера поискового пространства). Наконец, утверждение о нулевой информативности системы с одним известным состоянием (log 1 = 0) не противоречит интуиции здравого смысла, что также немаловажно.

И вероятностный, и комбинаторный подходы к измерению информации имеют отношение только к привычной внешней информации. Что касается количественных мер для измерения внутренней информации, то, по нашему мнению, они нецелесообразны (по крайней мере, в современной науке). Ведь внутренняя информация объекта как его семантическое образное содержание (смысл, концепт, самоотображение) – не число, не материя и не энергия. Рациональная установка физика Галилея (Галилео Галилей был одновременно и выдающимся философом (см. его "Диалог о двух главнейших системах мира – Птолемеевой и Коперниковой", "Беседы и математические доказательства, касающиеся двух новых отраслей науки"). ) сделать всё неизмеряемое измеряемым представляется неприменимой для скрытых (объективных) смыслов, для субъективного понятия новизны информации и субъективных привносимых смыслов. Внешнюю (материально-энергетическую плюс идеальную) и внутреннюю (идеальную) формы информации "аршином общим не измерить": "идеальная информация не содержит в себе ничего, поддающегося измерению, следовательно, доступная измерению информация не может быть идеальной" (Н. Винер "Я – математик"). Используемая в современной теории информации мера – информационная энтропия источника информации – в большинстве случаев не более чем формальная дань галилеевской парадигме измеримости, математическая условность в интересах рациональных доказательств теории информации, и не более того. Поэтому информационная энтропия – всего лишь условная мера внутренней информации, не имеющая статуса истинной "меры".

Что касается информационного поля как возможного носителя внутренней информации, то измерять хранимую в нем информацию, как мы измеряем файлы, хранимые на материальных носителях, пока представляется столь же гипотетическим, сколь и существование самого информационного поля.

Закон сохранения информации

Будучи уверенными в существовании внешней информации об объекте и предполагая, что внутренняя информация объекта как сущность тоже "есть", согласимся, что вне зависимости от своей формы информация должна подчиняться некоторым законам, свойственным любым сущностям и существующим объектам природы. Последняя "не знает" о своих законах, как не знает ни науки, ни математики, используемых людьми для описания этих законов – изобретений человеческого ума. Полагаем, что природе свойственны закономерности, законосообразности вне зависимости от человека, а законы природы, тем более облеченные в математическую форму, являются продуктами человеческого разума (Согласно Н. Винеру "невозможно доказательство того, что природа подчинена законам…", но "…без веры, что природа подчинена законам, не может быть никакой науки".) .

Основными законами природы являются законы сохранения. Значит, должен существовать и закон сохранения информации. Данный закон еще не обрел подобающего ему статуса среди других законов сохранения, возможно, потому, что до сих пор не достигнуто взаимопонимание об атрибутивной информации, о месте информации в ряду философских и общенаучных категорий, об отношениях информационной и термодинамической форм энтропии. Но от этого закон сохранения информации представляется нам не менее значимым, являясь одним из фундаментальных законов мироздания.

Количественный закон сохранения информации, а точнее закон сохранения энтропии, имеет строгое теоретико-информационное доказательство в математической форме. В философии информации мы приведем его в вербальной форме : для замкнутой (закрытой) системы текущая сумма количества взаимной (внешней) информации между источником и потребителем и их совместной энтропии есть величина постоянная, равная сумме априорных энтропий источника и потребителя (Догадки о существовании такого закона высказывались, начиная с 60-х г.г. ХХ в., многими учеными и философами, полагавшими, что некоторая математическая композиция энтропии и количества информации (шума и информации) должна быть константой. Значение этой константы определено автором в 2000 г. в предположении, что априорные энтропии источника и потребителя можно измерить.) .

Сумма априорных энтропий источника и потребителя есть константа сохранения, не зависящая от интенсивности и энергетики информационного процесса между ними (внутренняя и внешняя формы информации инвариантны к своим носителям). Смысл константы сохранения в том, что в любом информационном процессе совместная внутренняя информация источника и потребителя неизменна. Сумма априорных энтропий может интерпретироваться как суммарное "количество априорного знания" источника и потребителя друг о друге. Напоминаем, что вопрос об измеримости энтропий и их суммы остается открытым, поэтому приведенная формулировка закона справедлива только в рамках рационально-материалистической философии с ее математическим дискурсом.

Если же внутренняя информация идеальна, а потому не измеряема, тогда количественный закон сохранения информации становитсякачественным законом с чисто философским подтекстом. А именно: неизмеряемая внутренняя информация, частично проявляясь в измеряемой внешней информации, остается неизменной в своей идеальной сущности.

Если информационный процесс имеет физическую (материально-энергетическую) природу, значит, в нем идеальная сущность информации проявляется в ее материальном существовании, и, следовательно, между философскими категориями материи и идеального – не пропасть (как уверяют материалисты), а мост. Этот мост существовал всегда, а закон сохранения информации просто лишний раз напомнил об этом своей идеальной константой сохранения.

Как показано выше, внутренняя информация физически не наблюдаема в опыте, как не наблюдаем физический вакуум – низшее энергетическое состояние квантовых полей. Значит, носитель (вернее, хранитель) информации в виде гипотетического информационного поля имеет неэнергетическую или, по крайней мере, субэнергетическую природу, а закон сохранения энергии к такому носителю если и применим, то с очень серьезными оговорками. Зато наверняка закон сохранения энергии не применим к "носимому" – трансцендентальной внутренней информации, которая вместе с внешней информацией подчиняется собственному закону сохранения – закону сохранения информации вне материально-энергетических представлений. Обычно материально-энергетические законы сохранения строго формулируются для закрытой (замкнутой, изолированной) системы. Но информация проявляется лишь во взаимодействии систем (минимум двух), частично являя внутреннюю информацию во внешней, и закон сохранения информации не может не считаться с обеими формами информации. Даже закрытая система в информационном аспекте представляется нам состоящей, как минимум, из двух открытых подсистем – подсистемы источника и подсистемы – потребителя информации . Таким образом, сумма априорных энтропий как гипотетическая количественная мера общей внутренней информации источника и потребителя является константой сохранения, инвариантной к интенсивности информационного метаболизма до тех пор, пока метаболизм не изменяет уровень самоорганизации одной или обеих подсистем – участниц информационного процесса. Количественно новый уровень самоорганизации подсистемы соответствует новому значению ее априорной энтропии. Значит, в динамике развития (или деградации) подсистем (источника и потребителя) информационная константа сохранения, не являющаяся физической мировой константой, будет изменяться вместе с изменением их внутренней информации. Правда, такое изменение представляется не перманентным, а скорее скачкообразным, соответствующим синергетическим представлениям о бифуркационных и полифуркационных процессах. Но в каждом информационном взаимодействии, соответствующем значению константы сохранения, достигнутому на очередном "скачке" самоорганизации, приведенный закон сохранения информации действует неукоснительно, а динамичная внешняя информация количественно не может превысить текущего значения минимальной из энтропий, которые входят в достигнутую константу сохранения.

Пример 8. Замкнутая среда и зависимая от нее открытая система информационно взаимодействуют друг с другом, при этом информативность (энтропия) среды больше информативности системы, ибо последняя включена в среду, а не наоборот. Характер информационного взаимодействия системы со средой во многом зависит от целей системы. Если цель – самоорганизация, то с синергетической точки зрения система приобретает информацию в количестве не более того, сколько может "переварить", использовать для своей самоорганизации, исходя из накопленного ею информационного разнообразия. Если же цель – самообучение, то с точки зрения когнитологии и эпистемологии система познаёт то, что может, а если хочет познать больше, должна увеличить свои информационные возможности, т.е. потенциальную информативность своего тезауруса (базы знаний), свое информационное разнообразие. С позиций информационного монизма информационное поле среды открыто системе лишь в меру возможностей восприятия внешней информации тезаурусом системы. Поскольку тезаурусы разных систем, входящих в среду, различны, системы воспринимают разную внешнюю информацию от среды даже в общем информационном процессе. Но и источник генерирует при этом количественно разную для всех информацию. Так, несколько наблюдателей некоторого объекта могут сделать на основе одного и того же наблюдения разные выводы, как из-за разной информативности своих тезаурусов, так и по причине разных "ответов" объекта на разные "вопросы" наблюдателей к одним и тем же результатам наблюдения. Разные социумы и разные индивиды недопонимают менталитет друг друга (и до конца не поймут!), потому что, вероятно, "взрыхляют" разные (в лучшем случае частично пересекающиеся) участки информационного поля. Таким образом, информационное разнообразие систем в Универсуме обусловлено в существенной мере разнообразием системных тезаурусов, селектирующих доступную им информацию в информационном поле Универсума в строгом соответствии с законом сохранения информации.

Важным следствием закона сохранения информации является жесткое количественное ограничение, накладываемое на информационный процесс достигнутой (текущей) информативностью его участников (источника и потребителя информации): их суммарная энтропия как количественная мера общей внутренней информации – константа, сохраняющаяся до следующего этапа развития (деградации).

Если считать при этом, что развитие систем как увеличение их организованности (порядка) связано с уменьшением энтропии, то каков предел такого уменьшения? Согласно теории информации энтропия в любой из своих форм не может быть отрицательной, ведь нуль-энтропия – это тупик развития (стопроцентная определенность). Термодинамический аналог – состояние физической системы при абсолютном нуле температур, соответствующем нулевой термодинамической энтропии, которая недостижима (третье начало термодинамики). Значит, потенциал развития систем всегда есть. Была бы нужда в науке, если все было бы познано? Возможно ли развитие общества, достигшего своего "последнего состояния"?

Кинетика количества внешней информации и потенциальность энтропии внутренней информации отличаются от превращения потенциальной энергии в кинетическую тем, что апостериорная условная энтропия не есть мера остатка априорной энтропии внутренней информации источника после генерации внешней информации, как это казалось бы при тривиальном энергетическом подходе. В отличие от энергии, которая "не есть", информация, которая "есть", не преобразуется из потенциальной внутренней формы в кинетическую внешнюю. Апостериорная энтропия количественно характеризует лишь апостериори недополученную (неотраженную, невоспринятую, непознанную) потребителем часть внутренней информации источника, измеряемой (?) посредством его априорной энтропии.

Таким образом, внутренняя информация не превращается во внешнюю, а лишь частично реплицируется (тиражируется, копируется) в нее; нереплицированная часть внутренней информации есть дефицит внешней информации (информдефицит), а количественно – часть энтропии (Напомним, что количественное измерение внутренней информации (подобно потенциальной энергии) представляется нам излишним. Сейчас трудно предсказать, как будет (и будет ли!) измеряться внутренняя информация в рамках грядущей информационной парадигмы и, соответственно, какой будет новая формулировка закона сохранения информации.) . Этим информационные процессы отличаются от материально-энергетических, где превращение имеет буквальный смысл – энергия нереплицируема. Кажущееся разрушение (уничтожение) внешней информации об объекте не разрушает внутренней информации объекта. Последняя лишь рассеивается и может быть восстановлена, чем, кстати, пользуются на практике (криптографическая защита, протоколы Интернета, сжатие файлов, компьютерные вирусы-невидимки, шумоподобные сигналы и др.).

Закон сохранения информации постулирует, как и следовало ожидать, что информация не возникает из "ничего". Не будь внутренней информации, внешняя информация не появлялась бы из "ничего". Закон сохранения информации можно было бы считать трюизмом, ибо всем сохраняемым величинам даны такие определения, что они должны сохраняться. В этом данный закон подобен любому закону сохранения (энергии, импульса, заряда и т.д.). Но парадокс в том, что законы сохранения, в основе которых лежат обычно самые простые и интуитивные представления, легче назвать трюизмами после того, как они доказаны, поняты и сформулированы, нежели до того. Возможно, в дальнейшем выявятся и другие законы взаимосвязи между свойством и отношением в феномене информации, уже не представляющиеся трюизмами.

It is characteristic that the law of conservation and transformation of energy, which postulates the invariance of the total energy of an isolated system, is formally close to the considered law of conservation of information. Does the formal closeness of the two laws of their meaningful kinship mean?

First of all, there is no meaningful relationship between information and energy. After all, energy in natural science (as well as mass, force, or length) is only a measure invented by people (in ancient Greek, “energy” is an action, an activity, and not a certain amount). In Russian, "nature is all that is" (V.I. Dal). Energy-action, energy-activity as phenomena of entities that are "themselves" and themselves can be represented as processes (according to the principle of the Whitehead process) can be studied by natural science as the ability of entities to do work. But energy-measures as a nature "no", it is only used by natural science to distinguish natural processes by their intensity (in the context of the information diversity of "nature"). The field is also "is", and the concept of field energy is also introduced, secondary. Information "is"; accordingly, the amount of information as a measure is only used to distinguish information processes and research information. In this context, we consider it reasonable to transform the triad "substance - energy - information" into "substance - field - information".

The problem of the relationship of matter, energy, fields and information is understandable in the attributive approach to the concept of information. The substance contains internal information in the energy-free information field, an “energetic” field carrier is needed to transfer external information that partially reproduces internal information. This judgment is related to the physical material world in which substance, energy, field and things (bodies) are inherent. As already noted, the philosophical concept of matter is abstract, metaphysical in nature - no less abstract than the concept of soul and spirit. We believe that future physics, apart from matter as an objective reality (the physical part of being), will be forced to engage in subjective reality and even subjective-objective irreality , very far from the physical "matter" given to us in sensations. And then the prediction of S.I. will come true. Vavilova on a fundamental change in the content of physics with the introduction into its everyday life of "ability, similar to sensation."

Reflecting on this issue, A.I. Veinik in "Thermodynamics of real processes" proposed the law of conservation of information energy (information energy) as a measure of the amount of behavior of an evolving system. According to Veinik, the behavior of such a system characterizes its manifestation outside in the widest sense when interacting with the environment.

While agreeing with N. Wiener that information is not matter and not energy, we nevertheless agree with A.I. It is due to the fact that material and energy and information processes as material and ideal forms of activity of the entities of the universe are deeply interconnected. After all, any material and energy (material and energy) interaction is simultaneously an information process. The interaction field created in this case contains information about its sources, otherwise we would not know anything about them and about the interaction between them.

Interaction can be material, activity (energy) and information field. We assume that energy characterizes intensity, and the amount of information is a variety of interaction. Together, energy and the amount of information from different sides characterize the change in the state of the systems. Content information and energy are different, but behaviorally they are similar in many particulars. If, by analogy with the Kelvin gradation of the value of energy types, we proceed to a gradation of the value of interaction types, then in descending order of value they can be arranged as follows: information → energy → real. According to the degree of their impact on objects, energy and information, perhaps, are not inferior to each other, because it is possible not only with fire, but also with the “verb to burn people's hearts”. At the same time, energy acts on objects directly in a force form, and information in most of the manifested processes of our world of things - indirectly - through the energy that it (information) controls. Moreover, in this world, all revealed information processes are energy-dependent, and energy processes are informational in the sense that information transfer is usually performed by a tangible carrier (signal), and energy transfer is usually initiated by information (Undefined information processes or do not depend , or slightly dependent on energy.).

But as soon as we move from the concept of information energy to its physical essence, the problem of interpretation arises: what is it - a mixture of incompatible entities or a self-contained entity that cannot be decomposed into information and energy components? So, if information is applied to the “person” system, then can we quantify human behavior if, following Veinik, we understand the behavior “in the widest sense” of this term? The task is not an easy one, and it should be solved only after the physical relationship between information and energy has been clarified - causal, correlation or independent. Following immediately arise the question of the physical unit of information "bit-watt-second . "

Veinik argues that it is not information that is transferred (transmitted), but energy under the influence of the difference between so-called informational measures as measures of the intensity of information interaction; information of the same system, as well as temperature or electrical potential, can only change in the process of energy transfer. This statement, firstly, mixes together the qualitative entity (information) and the quantitative properties of entities (temperature, potential), which is unacceptable, and secondly, it excludes the very concept of information process (information interaction). If to be consistent, according to Veinik, only material and energy interactions remain in the world, informational metabolism is excluded. However, all energy processes are informational, the reverse statement is questionable. Energy is a measure of the work done by the information carrier in these processes. Who is the employer? - information! - this conclusion follows from the entire course of the previous justifications - it is the information that initiates all interactions. On the other hand, the information process in principle may not need the known forms of energy - to be energy-free in the traditional sense.

And, nevertheless, the concept of information seems appropriate, but only for information processes in which the lack of external information (information deficit) can be represented as an information analogue of the energy potential difference. With full external information (copies of internal information of the object) information "potential difference" is zero (there is no information deficit, the object is known), in the absence of external information its amount is zero and the information deficit is maximum. The difference in the amount of external information and information deficit is the entropy constant of conservation in the law of conservation of information (entropy). In this context, the concept of information deficit can be replaced by the concept of information, but not in the interpretation of A.I. Veinik. In connection with the foregoing, one should not deny the possibilities of information energy as a concept that binds together information and energy, but not simply as two sides of one process, but in its deeper ontological understanding as a connection between essence, property and relationship. From the standpoint of the unity of the nature of interactions, this connection is plausible. And if we defend its existence in our own way, there is no reason to deny A.I. Veinik, other scientists and philosophers in a similar right, as well as the right to propose their formulations of the law of conservation of information (Unfortunately, the equation of the law of conservation of information proposed by A. I. Veinik, does not contain explicitly the parameters of conservation (constants, restrictions on their constancy) that casts doubt on the law itself.).

The justification of the generalized information-energy conservation law (with the involvement of experimental data) is a grateful area of ​​research for scientists and philosophers. One of the productive, deserving of a special study of socio-economic aspects of the mediated connection of the amount of information with energy as a measure of work could be cost equivalents of a real goods (money) and the value of external (metabolic) information as an intellectual product in an information society. At the same time, internal information is “invaluable”, because, if it is not measurable, then it is not a commodity with a price.

The laws of conservation known in physics are connected with the fundamental principle of symmetry of physical laws (the invariance of nature). This means that, for example, energy, momentum (amount of motion), and angular momentum are conserved when physical conditions change, because space and time are isotropic and homogeneous. If we simultaneously or sequentially in the same place or in different places in a fixed or moving inertial coordinate system conduct the same experiment, always getting almost the same result (within the error of the method), then we demonstrate this one - the fundamental principle of symmetry of nature at the substantive level of space-time.

According to the principle of symmetry, the electron is “eternal” according to the law of conservation of electric charge, the proton is “immortal” according to the law of conservation of baryon charge. However, we neither observe the electron nor the proton, but judge them indirectly (according to experimental data). The conservation laws are fulfilled not only for observables, but also for unobservable, but physical phenomena present in our consciousness, for example, for the physical vacuum, wave Ψ-functions, oddities (quantum numbers characterizing hadrons) and microparticles. Information as a perfect phenomenon is also not observable. The law of conservation peculiar to it is invariant to the nature of information processes (energy, energy-free) and indicates the invariance of the internal information of an isolated object with any changes in external information. This is the principle of information symmetry.

Principle of mutual information

It is known that the information process is effective if the transmitting side (encoder, transmitter) and receiving side (receiver, decoder) are matched (similar) with each other according to the parameters (specifications) of codes and signals. In the language of philosophy, this means that in the information process of cognition the subject is likened to an object for perceiving external information from the latter: "... the mind, knowing, is likened to things" (H. Ortega-i-Gasset). In terms of optimal filtering, this means the coincidence of the amplitude-phase-frequency characteristics of the receiver and the transmitted signal. The principle of similarity is reversible: if, in cognizing, my thinking should be like things, then this is possible only insofar as the knowable thing coincides with the structure of my thinking, is related to it. These ideas are consistent with the well-known principles of "tuning" the brain to interact with objects of knowledge in acts of meditation, telepathy, inspiration, insight, guesswork, etc.

The state of mental kinship, apparently, requires more than just the conscious work of the psyche with its noisy symbolic transformations. Following Z. Freud, it is logical to assume that the much larger part of the brain, which most likely should be attributed to the subconscious, the unconscious, carries out latent cognitive procedures parallel to the consciousness, probably through noisy, low-energy communication channels. The question is only in the “small” - is the assumption once confirmed, i.e. are there such communication channels, and if so, how to use them to master the hidden information of mental assimilation (These findings are consistent with the concepts of the semantic field and semantic vacuum by VV Nalimov.).

Imagine two physically interacting systems A and B (for example, the subject-observer and the observed object), which, as noted above, are interdependent in any experience, including informational. According to the physical principle of reciprocity between the two sources of fields and the fields they create, there is a cross-link at the source locations. Consequently, there should be an informational cross-connection between A and B, because the fields are information carriers. Let us call the information connecting A and B mutual information. At zero energy of a physical carrier field, mutual information does not disappear, but continues to circulate between A and B through a non-energy (low-energy) information channel of communication, which for classical science is nonsense, but for us it is quite possible. Information theory proves that regardless of the nature of the communication channel, the amount of information received by A regarding B is equal to the amount of information received by B regarding A (VI Dmitriev. "Applied Information Theory). Consequently, each of the two systems takes information about the other, through interaction, it transfers to it (even against “its will”) external information about itself in the same quantity. According to the algorithmic approach of AN Kolmogorov (topic 1, section 1.5), the amount of mutual information is a measure of the complexity of the object subject, their mutual complexity must be coordinated in the information process. In other words, in any interaction there is mutual information that is quantitatively the same for interacting objects. Let's call this conclusion the principle of mutual information.

Example 9 Let the interaction of the two systems be man's knowledge of (A) nature (B). According to the principle of mutual information, man and nature, interacting, receive quantitatively the same mutual information about each other. At the same time, quantitative reciprocity does not at all imply (though does not exclude) qualitative (semantic, goal-setting) reciprocity. The meaning and value of mutual information for man and nature are generally different.

It seems to us that only we know nature and act on it. In fact, these acts are reciprocal: nature, “using” mutual information, also cognizes us and affects us as it can - if not by governance (it usually has other “goals” than we do), then causation (attacking or defensive) . And the quantitative aspect here is not so important. A more urgent problem is seen in the very existence of mutual information. To understand this, it is enough for humanity to rise above its own Ego and feel itself in unity with nature, without being comforted by the illusion of intellectual superiority and "royal" permissiveness. Unity with nature can be seen, for example, in the goal-setting of the Good together with it. All natural systems (including anthropic) are mutually informational, their division into objects and subjects of the information process is conditional. So, for example, "... knowledge is not the seizure of a dead object by a predatory gnoseological subject, but a lively moral intercourse of personalities, of which each serves both as an object and a subject" (PA Florensky).

Example 10. Act (relation) of management as an informational influence (team, stimulus, question (In general, management is informational and energy impact, but we deliberately neglect its relatively small energy to emphasize the dominant, decisive role of the information component.)) On any (and not only cybernetic) object with the purpose of changing its state must be included in the act of knowledge (as execution, reaction, response). Backward inclusion (cognition in management) is possible , but not necessary. Indeed, the object of management, when accepting a command, must understand it and, through this understanding, know the controlling subject before carrying out its command. Otherwise, "there is an abyss between the order and its execution. Understanding must connect them" (L. Wittgenstein). In this case, it is possible that inadequate execution of misunderstood commands, for example, in the presence of interference. With "power management" (causing, physical impact, violence, administrative pressure), an understanding of commands is not fundamentally required ("To execute! And without question!"). In this case, the control energy is commensurate with the energy of the caused action, and the information component is practically insignificant.

The principle of mutual information extends to the memory that nature should have - like the memory of a person interacting with it. Moreover, due to the informational interconnectedness of man and nature, they should have a common memory. It is logical to include the common memory in the area of ​​the "general mind" of man and nature - the so-called. the noosphere, which so far seems to be a kind of ideal, but, like all ideals, is disturbed by our mind and feelings, prompting us to work.

Продолжение:


Часть 1 2: Physics Information
Часть 2 Закон сохранения информации - 2: Physics Information


Comments


To leave a comment
If you have any suggestion, idea, thanks or comment, feel free to write. We really value feedback and are glad to hear your opinion.
To reply

philosophiya

Terms: philosophiya