Роль условий устойчивости при синтезе информации как физическом процессе - Введение меры информации в аксиоматическую базу механики - А.М. Хазен - Философия как наука - Философия на vuzlib.su
Тексты книг принадлежат их авторам и размещены для ознакомления Кол-во книг: 64

Разделы

Философия как наука
Философы и их философия
Сочинения и рассказы
Синергетика
Философия и социология
Философия права
Философия политики

  • Статьи

  • Роль условий устойчивости при синтезе информации как физическом процессе

                Что и как в природе образует из элементов систему, обладающую определёнными свойствами?

    Ответ, который дан в этой работе, конкретен – воз­ник­новение но­вых объектов и их состояний (сис­тем) имеет причиной процесс синтеза информации – создание информа­ции вновь. Син­тез информации есть первичный, основополагающий для природы физичес­кий процесс, кото­рый имеет разные фор­мы, объединён­ные общей основой.

                Синтез информации определен [32], [33] как запоминание слу­чай­но­го выбора. Такое определение детализирует [2] – [6] цепочка:

    Случайные выборки.

    Условия, с помощью которых случайным выборкам сопо­ста­в­­ляет­ся некоторое следствие.

    Запоминание результата в виде  устойчивого  воспроизве­де­ния данного следствия.

                Понятие запоминания для физической системы (физической пере­менной) тождественно понятию – устойчивость воспроизведения систе­мы (переменной). Поэтому для синтеза информации решающие есть условия устой­чивости физических и абстрактных процессов. Устойчи­вость систем проверяется на  основе  известных крите­ри­ев А. Ляпунова, сформулированных на основе функций Ляпунова [26]. Существование
    функций Ляпунова есть достаточный критерий устойчи­вости.

    Подпись: Рис. 1.3.
                Если принять известными классы функций      или      и посто­ян­ных  K,  то можно укрупненно выделить виды синтеза информации (рис. 1.3), отличающиеся видом функций Ляпунова и условиями устой­чи­вости. Все виды синтеза информации рис. 1.3 самопроизвольны, то есть направлены либо в сторону максимума энтропии, либо к минимуму энергии взаимодействия.

                Первый из видов синтеза информации – установление стати­чес­ки равно­вес­ного состояния, например, в газе. Ему соответствует макси­мум энтропии-информации:

    dS  0   и   d2S < 0.                                       (1.4)

                Само количество информации, которое недостает до полного опи­сания индивидуальных атомов или молекул, материализуется в виде физической  переменной – энтропии   S,   например, газа (1 на рис. 1.3).

                Без подвода энергии или тепла рост энтропии возможен только как переход­ный процесс, заканчивающийся окончательным равновесием (1.4), то есть  dS  0. Энтропия-информация описывает наиболее веро­ят­ное рас­пределе­ние энергии. В идеальной замкнутой системе под­вода энергии и тепла нет, но энт­ропия как физическая переменная существу­ет. Это тавтоло­гично оз­на­чает, что в замкнутой системе как предел обя­за­телен случай   dS  0. Но понятие замкнутая система есть идеализация, поэтому всегда необходимо рассматривать конкретные особенности реа­лизации такого предела.

                Особенность энтропии как переменной, описывающей рас­пре­деле­ние, (многократно подчеркиваемая, начиная от Больцмана) в том, что это распре­де­ление имеет исключительно острый максимум. Например [34], вероятность найти при однократном наблюдении в массе газа величиной 10 грамм-моле­ку­лы отклонение энергии  10  от значения, заданного мак­симумом энтропии, сос­тавляет непредставимо малую ве­ли­чину по­ряд­ка 10. Поэтому детер­ми­низм возможного в данных условиях мак­симума энтропии-информации (опре­деляемый случайно­стя­ми для эле­­­ментов системы) количественно намного пре­вос­ходит де­тер­минизм, например, закона сохранения энергии в классичес­ких формулиров­ках.

                Это использует известный метод максимума энтропии Джейнса [35] и его развитие Хакеном [36].  Конкретные реализации этого метода основаны на классической больцмановской нормировке энтро­пии [31]. 

                Согласно второму началу термодинамики в формулировке аксио­мы II, веч­ное равновесие невозможно. Поэтому при любых масштабах про­цес­сов замкнутая система есть идеализация (что было подчеркнуто в аксио­ме IV).

                Необходимо отметить, что в современной литературе о самоорга­ни­­за­ции (см., например, фундаментальную книгу Г. Ха­ке­на [36]) ут­верж­дается, что количество информации в равновесной системе равно нулю. Это, конечно, ошибка. Можно принять такое приближенное условие, ес­ли считать равновесие “целью природы”. Но это не так.

    В открытой системе (при непрерывном подводе энергии или тепла) возмо­жен рост энтропии, исключающий равенство, то есть   dS > 0   до тех пор, по­ка подвод энергии, превышающий диссипацию, не будет прер­ван. Ес­тест­­вен­но, что рассматриваются релаксирующие системы. В специально скон­ст­ру­и­рованной открытой системе при подводе энергии возможно условие  .

                Подвод энергии выводит систему из равновесия. При отклонениях от равновесия система стремится вернуться к нему. Запоминание в про­цес­се синтеза информации в этом случае обеспечивают критерии устой­чи­вости вида 2 на рис. 1.3  в форме максимума энтропии  и минимума производства энтропии:

     < 0   и   >  0.                                    (1.5)

                Это классическая онсагеровская неравновесная термодинамика, а условие (1.5) есть принцип минимума производства энтропии Пригожи­на [36] – [39] для процессов, близких к равновесию.

                Динамическое равновесие (как основа запоминания) есть отличи­тель­ная особенность синтеза информации (3 на рис. 1.3) в системах, да­лё­ких от статического равновесия (статическое равновесие пони­ма­ет­ся как одновременно равновесие статистическое, для распреде­ле­ний).

                Для них результат Глансдорфа и Пригожина [37] содержит ус­ло­вие устой­чивости, записанное с помощью возмущений  про­из­водства энтро­пии в данном неравновесном состоянии, то есть в виде условия:

     <  0    и   (0.                              (1.6)

                Энтропия и её производство для близких к равновесию систем автоматически есть функции Ляпунова. Для далеких от равновесия сис­тем устойчивость зависит от деталей кинетики процессов, а потому воз­му­щения производства энтропии в (1.6) не всегда есть функции Ляпу­нова, так как синтез информации при условиях запоминания (1.6) есть процесс, зависящий от многих условий. Возникающие динамические объек­­ты ста­ти­чески неравновесны.

                Основополагающие работы в этой области [37] – [40]. Про­цес­сы 2, 3 на рис. 1.3 принято называть диссипативной самоорганизаций или са­моорга­низацией хаоса. Только издательство Шпрингер в серии "Син­эр­гетика" выпу­сти­ло более 60 книг по этим вопросам.

                В природе часто встречается принципиально иной вид синтеза инфор­мации (отличающийся от заданного условиями 1, 2, 3 на рис. 1.3), при котором функция Ляпунова использует свободную энергию.

                В результате такого синтеза информации также возникают стати­чес­ки равновесные объекты (например, кристаллы): случайные выборки разных "нумерованных" атомов образуют одинаковые структуры.

                Свободная энергия есть термодинамический потенциал, у которого неза­висимой переменной является температура. В зависимости от выбо­ра неза­висимых переменных для форм энергии, являющихся ре­зуль­та­том работы сил  Xi,  обладающих потенциалом, свободная энергия имеет разные названия. Общепринятые среди них существуют для ме­ха­ни­чес­кой энергии как сос­тав­ляющей в термодинамическом потен­циа­ле.

                Условия устойчивости в этом случае, записанные, например, с помо­щью свободной энтальпии, имеют вид:

    dG  0     и    d2 G  >  0.                                  (1.7)

                Синтезированная информация есть свойства кристалла как мак­ро­скопического объекта. Условия устойчивости в этом случае имеют вид  4  на рис. 1.3.

                Информацию такого типа можно назвать семантической, так как она однозначно определена, например, свойствами атомов, образующих кристалл. Синтез информации только выявляет ее из шумов. Обосно­ва­ние строгого определения понятия сематическая информация в виде:

    I  K lnZ,                                                (1.8)

    где  Z – статистическая сумма. Связь I  со свободной энергией будет рассмотрена в параграфе  8  этой главы.

                Роль информации как физической переменной в том, что ее вели­чи­­на и изменения задают факт существования физических объектов и про­цессов.

                Все процессы рис. 1.3 самопроизвольны, то есть связаны с ростом энтро­пии (или уменьшением энергии взаимодействия). Их главная об­щая особен­ность в том, что все они имеют "цель" в виде равновесия. Из­вест­ный парадокс "тепловой смерти Вселенной" в том и состоит, что "целью" всего сущего оказывается вечное окончательное равновесие. Условия типа рис. 1.3 создают на этом пути то, что Пригожин [39] назвал "возникающим". Всё в терминах Пригожина "возникающее", на­хо­­дит­ся не дальше от равновесия, чем позволяют условия (1.6). Поэтому самые неравновесные из процессов, описы­ваемых на основе критериев рис. 1.3 (а ими исчерпывается современный арсе­нал самоор­ганизации хаоса), не позволяют ответить на вопрос:  почему "тепловая смерть" Вселенной не наступила задолго до появления Вселенной в её совре­мен­ном виде, а тем более жизни и разума в ней?

                Если информация может возникать только в процессах возврата к равно­ве­сию, то не только жизнь и разум, но и все сущее есть только случайные флуктуации, так как в существующей науке нет способа опи­сать возникновение новой информации в процессах ее роста, не ограни­чен­ных равновесием.  А в том, что в природе многократно существуют в избытке локальные самые разнообразные равновесия, убеждать не надо.

                Кроме того важнейший раздел современной науки – классическая механика – не имеет аксиоматической общности с термодинамикой. В ней отсутствует строгое определение энергии, включающее в себя урав­не­ния состояния, общепри­ня­тые в остальной науке. Поня­тие – информа­ция – в ней отсутствует. Везде в природе процессы или объекты воз­ни­кают и существуют в результате изменений количеств ин­фор­мации, а в механике подобного нет.

     





     
    polkaknig@narod.ru ICQ 474-849-132 © 2005-2009 Материалы этого сайта могут быть использованы только со ссылкой на данный сайт.