Страница 12 - Разум природы и разум человека - А.М. Хазен - Философия как наука - Философия на vuzlib.su
Тексты книг принадлежат их авторам и размещены для ознакомления Кол-во книг: 64

Разделы

Философия как наука
Философы и их философия
Сочинения и рассказы
Синергетика
Философия и социология
Философия права
Философия политики

  • Статьи

  • align=left style='text-align:left'>Принцип максимума производства энтропии – принцип максимума способности к превращениям

                В определении энтропии (1.1) обычно задана конкретная величина адиаба­тического инварианта в виде постоянной Больцмана. Этим вво­дит­ся ог­раничение: считается, что энтропия, которая есть одновременно ме­ра информации, за малыми ис­клю­чениями определена только для теп­ло­вых процессов. Однако поня­тие об информации, как физической пере­менной  уни­версально (что было пояснено выше). Оно долж­но присут­ст­вовать при описании большинства про­­цес­сов природы.

                Разным процессам, объектам и их описанию должны соответст­во­вать разные адиабатические инварианты в определении энтропии (1.1). По­этому в природе должен существовать самопроиз­вольный процесс син­теза информации о конкретных по физической при­роде и численной величине адиабатических инвариантах для разных клас­сов задач. Синтез информации об адиабатических инвариантах дол­жен предварять синтез информации с использованием критериев запо­ми­нания рис. 1.2. Само­про­извольно опять означает – в направлении роста энтропии-инфор­ма­ции с учётом семантической информации.

                Для того, чтобы описать синтез такой информации, необходимо най­ти устойчивый процесс, который обеспечивает за­поминание в про­цессе синтеза информации о конкретных адиабатичес­ких инвариан­тах  Kk  в определении энтропии (1.1). Функциями Ляпунова для него долж­ны быть энтропия S(K)  и её производство  в такой форме, ког­да их аргумент есть адиабатичес­кий инвариант  K  в роли переменной. Для ис­сле­дования устойчивости необходимо проанализировать экстре­му­­мы энт­ропии и её производства, определенные по отношению к вели­чи­не адиаба­ти­чес­кого инвари­ан­та.

    Максимум энтропии S(K) не может быть основой синтеза инфор­ма­ции о величине  K, так как максимум энтропии  S(K)  в сочетании с мак­симумом энтропии (1.1) при заданном  K  есть вечное окончательное рав­новесие, которое невозможно в силу второго начала термодинамики.

    Это необходимо пояснить. Все процессы рис. 1.2 самопроиз­воль­ны, то есть связаны с ростом энтропии (или уменьшением энергии вза­имодействия). Их главная об­щая особенность в том, что все они имеют “цель” в виде равновесия. Из­вестный парадокс “тепловой смерти Все­лен­ной”, сформулированный В. Ост­вальдом, в том и состоит, что “целью” всего сущего оказывается веч­ное окончательное равновесие.

    Условия типа рис. 1.2 создают на этом пути то, что Пригожин наз­вал “возникающим” [28]. Всё возникающее у Пригожина нахо­дит­ся не дальше от равновесия, чем позволяют условия рис. 1.2. Поэтому са­мые неравновесные из процессов, описываемых на основе критериев рис. 1.2 (а ими исчерпывается современный арсенал самоорганизации ха­оса), не позволяют ответить на вопрос – почему “тепловая смерть” Все­ленной не наступила задолго до её появления в совре­мен­ном виде, а тем более жиз­ни и разума в ней?

                Если информация может возникать исключительно в процессах возврата к равновесию, то не только жизнь и разум, но и все сущее есть слу­чайные флуктуации, так как до работ [2], [3], [11] не было способа опи­сать возникновение новой информации в процессах ее роста, не огра­ни­­чен­ных равновесием. А в том, что в природе существуют в из­бытке ло­каль­ные разнообразные равновесия, особо убеждать не надо.

                Масштабы процессов от “элементарных частиц” до Вселенной в целом отличаются на 40 - 60 порядков величины. Детерминированная связь в таком диапазоне величин может быть основана только на пере­мен­ной логарифмического характера, которая в этом случае изменяется всего в диапазоне порядка сотни. 

                Если множитель  K  принять в качестве переменной в определении энтропии типа (1.4), то мера информации об адиабатических инвариан­тах системы есть

    S(K) =  lnK,                                          (1.8)

    то есть логарифмическая переменная, что соответствует cформулирован­ному выше условию. 

                Синтез информации о величине  K  возможен, если  S(K)  имеет эк­ст­ремумы:

    dS(K)| j = 0,                                          (1.9)

    и они устойчивы (индекс  j  обозначает условия, при которых определя­ется экстремум).    Если экстремум   S(K)  есть минимум

    d2S(K)| j > 0,                                        (1.10)

    то такая точка статически неустойчива. Это гарантирует разрушение “ту­­пиков равновесия”, которые возникают на основе критериев запоми­нания рис. 1.2.

                Согласно критериям устойчивости Ляпунова эта точка может стать устойчивой динамически, если в ней производство энтропии имеет мак­си­мум. То есть адиабатические инварианты в оп­ре­делении энтропии для реализуемых в природе про­цессов и объектов должны удовлетворять ус­ловиям:

    d2S(K)| j > 0    и    d2 < 0.                        (1.11)

                Статически состояние минимума энтропии не­ус­тойчиво, то есть разрешает дальнейший рост энт­ро­пии (самопроизвольный процесс). Ес­ли произ­водство энтропии (при динамических про­цес­сах) в функции от  K  будет удовлетворять условиям (1.11), то в силу кри­териев Ляпунова состояние ми­нимума энтропии станет динамически устойчивым. Запо­ми­нание слу­чайного выбора по отно­ше­нию к ве­ли­­чи­не  K  станет воз­мож­ным, поэтому возможен син­тез инфор­мации о вели­чи­не  K.   Синтез информации на основе (1.11) введен мною в [2], [3], [11]  как принцип макси­мума произ­вод­ст­ва энтропии.

    Рис. 1.3.

     
                Принцип максимума производства энтропии ут­верждает, что син­тез информации о пос­тоянной  K  в определении энт­ропии (1.1) происхо­дит так, что гаран­ти­ру­ет существование устойчивого, по Ляпунову, пото­ка. По определению устойчивость этого по­то­ка озна­ча­ет, что его можно описать как последовательность стацио­нар­ных состоя­ний. В каждом из них локально действует принцип ми­ни­мума произ­водства энтропии При­го­жина или другие условия само­ор­ганизации (рис. 1.2).

                Это возможно потому, что условный экстремум (1.11) связан с сед­ловой точкой (рис. 1.3):  максимум производства энтропии для одной группы ус­ловий совместим с ее минимумом для другой.  Энтропия как функция  S(K)  имеет минимум. Но в плоскости, которая про­ходит через седловую точку   K = const,   выполня­ют­ся условия рис. 1.2, в частности, условие Приго­жина максимума энтропии и минимума производ­ства энт­ропии (2 на рис. 1.2). 

                Термин – энтропия – введен [34] Р. Клаузиусом в 1865 – 1876 г.г. Это греческое слово означает – способность к пре­вращениям.

    Рис. 1.4.

     
                Введенный мною принцип максимума про­изводства энтропии ма­териализует смысл энтро­пии как способности к превращениям:  фор­ми­ро­вание физических объектов и их взаимодействий происходит так, что гарантирует возможный в данных условиях макси­мум их спо­соб­но­с­ти к превращениям. Это проиллюстрировано схемой рис. 1.4. Слу­чай­но­с­ти на каждой ступени иерархии роста энтропии-ин­фор­мации рис. 1.4 про­исходят при условиях, которые задаёт, в частно­сти, синтез инфор­мации на основе критериев рис. 1.2 возврата к тупикам равно­ве­сия. Но в со­с­таве этих тупиков случайности рано или поздно (в зави­си­мо­сти от ус­ло­вий) приводят к “прорыву плотины”. При нём один из ва­ри­антов, ка­залось бы, окон­чательно равновесных (статически или ди­на­ми­чески) объек­тов попадает в условия, когда возможен син­тез инфор­ма­ции на основе прин­ци­па максимума про­из­­вод­ства энтропии, выражен­но­го критериями ус­той­чивости рис. 1.4.

                Принцип максимума производства энтропии-информации стано­вит­­ся первичным, самым фундаментальным законом природы. Он упра­в­ляет синтезом информации о пос­тоянных K (адиабатичeских инвари­ан­тах) в определении (1.1) для энт­ропии. Он позволяет природе пре­о­до­ле­вать тупики равновесия и эволюционировать всё дальше, несмотря на за­п­реты, которые, казалось бы, создают тупики равновесия. Именно поэ­то­му в картине мира невероятной “гигантской флуктуации” нет места ос­но­вы суще­ст­вования жизни, человека, его разума. Возникновение и эво­люция жизни на Земле не есть редкое исключение во Вселенной. Это лишь одна из многих ординарных реализаций закономерностей природы.

    Принцип максимума производства энтропии имеет и ещё один бо­лее частный смысл. В термодинамике практически без исключений энт­ропия рассматривается как переменная, отнесенная к единице объёма системы. Рост числа элементов системы в этом случае величину энт­ро­пии не изменяет. В живых системах размножение, то есть рост числа эле­ментов системы, есть важнейший определяющий процесс. В этом случае (в отличие от газов и подобных физических систем) рост числа элементов вызывает рост энтропии системы. Происходит это потому, что в живых системах элементы не обладают той степенью тождествен­но­с­ти, которая характерна для физических объектов – новые элементы сис­темы вносят новые случайности. Энтропия объёма системы становится за­висимой от числа элементов системы. Вариант принципа максимума производства энтропии с таким смыслом должен дополнять критерии, собранные на рис. 1.2.

    Критерии устойчивости рис. 1.2, 1.4 описывают равновесные сос­то­яния. В случаях 1, 4 на рис. 1.2 это статические равновесия. Ос­тальные критерии на рис. 1.2, 1.4 есть динамические равновесия. Для жиз­­ни и разума они преобладающие. Жизнь (как это ут­верждается в боль­шинстве работ) преимущественно связана с нерав­но­вес­ными про­цес­сами. Но создаваемые ими объекты динамически равновесны.

                Утверждения моих работ [2] – [12] и этой книги:

    мера количества информации в физических  системах и в чело­веческой деятельности определена как иерар­хическая переменная;

    информация в неживой природе, при возникновении жизни и ра­зума, в человеческой деятельности первично возникает на основе оди­на­ковых процессов синтеза информации;

    информация в теории связи отличается от инфор­ма­ции как фи­зи­ческой переменной существованием цели передачи сообщений;

    второе начало термодинамики (стремление к максимуму беспо­рядка, ограниченное внешними и внутренними условиями), в частности, выраженное принципом максимума производства энтропии, есть глав­ная причина детерминизма природы.

    При пояснениях к рис. 1.2 введено понятие о семантической ин­фор­­мации  I  и о связанных с ней критериях синтеза информации (4 и 5 на рис. 1.2). Как упоминалось, обычно критерий  4 формулируют по от­но­­ше­нию к сво­бодной энер­гии и используют, например, в химии для объяс­нения сос­тава и структуры молекул (в том числе биомолеку­л). На­пом­ню заданный ранее вопрос – почему энергетический крите­рий одно­роден с энтропией-информацией при синтезе информации как физичес­ком процессе? Этот вопрос особо важен именно для этой работы потому, что без понимания информационных особенностей образования биомо­ле­кул невозможно дать ответ на вопрос о возникновении жизни. Для то­го, чтобы ответить на него, надо установить роль экстремумов энер­гии в синтезе ин­­фор­мации и объяснить существо критериев 5. Сделаю это в параграфах 9 и 10.

    В современной науке не было пути устранения противоречия меж­ду су­ще­ствованием жизни и вторым началом тер­мо­ди­намики как зако­ном са­мо­произвольного роста энтропии. В этой книге и пу­б­ликациях [2] – [12] это противоре­чие устранено введением прин­ци­­па максимума произ­вод­­ства энтропии (максимума способностей превращений). В них ука­зан кон­крет­ный путь, на котором (конечно, в ре­зультате большой ра­бо­ты) мож­­но полу­чить жизнь из “первых прин­ци­пов” – в виде решений “на бу­ма­ге” урав­не­­ний сущест­вующей науки. В частности, для реали­за­ции это­го сле­ду­ет ввести энтро­пию-информацию как функцию комп­лекс­ного пере­мен­ного.

    Энтропия-информация как функция комплексного переменного

    Выше подчеркивалось, что нормировка энтропии есть неотъемле­мая составляющая определения энтропии как физической переменной. Она устанавливает значение энтропии как характеристики максимума вероятности состояния системы при заданных условиях, напри­мер, в ви­де числа элементов системы  N  и их общей энергии  U.  По­с­кольку про­цедура нор­ми­ровки энтропии как переменной термодинамики под­робно рас­смот­рена в учебниках термодинамики (см., например, [15]), то здесь выделю только её итог, введенный в [2], [3], [11].

    В строгом виде энтропия и её нормировка определены на основе понятия о фазовом пространстве. Поясню это понятие на примере газа.

    Дана система, например, газ из молекул – “бильярдных ша­ров”. Каж­­дую из них можно описать с помощью модели математической точ­ки, имеющей заданное положение, массу и ско­рость движения. Такое опи­сание понятно и наглядно. Оно было введено в механике Ньютона.

    Однако, как часто бывает в науке, простейшая мо­дель при опи­са­нии реаль­ности стала создавать трудности. Около 150 лет назад работа­ми У. Га­миль­тона и К. Якоби­ была создана принципиально новая меха­ника, ко­то­рая не нуждалась в понятии массы. Хотя бы в виде краткого пояснения ей учат всех студентов всех естест­вен­ных спе­циальностей университетов и институтов в последних лекциях по механике на вто­ром-третьем курсе. Но они это забыва­ют. Более то­го, даже узкие про­фес­сио­на­лы механики и физики не редко воспринимают механику Гамиль­тона-Якоби толь­ко как полезный формальный математический аппарат. 

    В механике Гамильтона-Якоби [35], [36], как и в обычной меха­ни­ке, частицу описывают с помощью координат в пространстве. Их обо­з­на­чают q. Но дальше принимают, казалось бы, чисто формальное, неве­ро­ят­ное, нере­аль­ное предположение – каждая частица получает своё (обыч­но трёх­мер­ное) про­ст­ранство. Если  N  есть число молекул в рас­смат­­риваемом объё­ме газа, а индекс j есть номер данного элемента сис­темы – молекулы газа, то гео­мет­рическое пространство в такой задаче (его называют кон­фи­гура­цион­ное пространство) имеет 3N измерений.  Трой­ка здесь появи­лась потому, что движение частицы может быть раз­ло­жено на состав­ля­ю­щие по трём гео­метрическим направлениям прямо­у­голь­ной системы ко­ординат. В этом случае говорят, что частица имеет три степени сво­бо­ды в своих дви­­­же­ниях. Степени свободы обозначают, например, буквой  f.  В приве­денном примере f = 3. Если молекула может вращаться или со­с­тав­ля­ю­щие её атомы могут колебаться друг отно­си­тель­но друга, то чис­ло её сте­­пеней сво­бо­ды будет больше.

    Не все по­ни­­мают, что невозможно определить, что такое масса, по­тому, что она является аксиоматическим понятием, несводимым к бо­лее про­с­тым. Мож­но только на примерах иллюстрировать её свойства.

    Следующий формальный шаг при введении понятия о фазовом про­­ст­ран­стве состоит в отказе от массы как аксиоматической перемен­ной механики. В механике Га­мильтона-Якоби появляется вместо массы другое ак­­си­о­матическое понятие – импульс, который обозначают p. Ил­лю­ст­ра­тивную связь между этими раз­ными системами исходных ак­си­ом для про­с­тейшего случая можно записать в виде , то есть им­пульс можно пояснить как произведение массы m на скорость v, ко­то­рая есть производная по времени от координат (что обозначает точка вверху). Но в уравнениях Гамильтона-Якоби импульс есть аксиома­ти­ческая са­мо­­сто­я­тельная незави­си­мая переменная. Он не нуж­дает­ся в опреде­лении с уча­стием массы. Механика Гамильтона-Якоби не нуждается в мас­се как переменной. Она может быть пояснена с её ис­поль­зованием, но не поте­ря­ет строгости и эффективности, если сам по себе импульс бу­дет незави­си­мой переменной.

     Теперь (в дополнение к пространственным координатам) объект ме­ха­ники (состоящий из N элементов, имеющих  f  степеней свободы у каж­дого) описывают  Nf  координат, которые есть им­пульсы элементов сис­темы. С учётом этого (новой аксиоматики, а также  конфигурацион­ных и импульсных координат) фазовое пространство имеет 2Nf изме­ре­ний, где  f  есть число степеней свободы одного эле­мен­та системы. Оно в слу­­чае одной материальной точки механики имеет шесть из­мерений.

     Например, молекулы в газе раз­личимы. Их можно, хотя бы мыс­лен­но, пронумеровать. Номера молекул  j  изменяются в интервале:

    .

    Далее можно ввести понятие об единице объёма ячейки в фазовом пространстве как произведения её “линейных размеров”: 

     .                        (1.12)

    В классической механике принято в качестве постулата, что этот объём может иметь нулевой предел. Физики принимают в виде аксиомы другое условие – объём (1.12) имеет конечную минимальную величину:

                       (1.13)

    где h – известная всем постоянная Планка. Выражение для мини­маль­ного объёма (1.13) известно в физике под названием – соотношение не­оп­ределённости Гейзенберга.

    Выражение (1.13) подразумевает, что есть некоторое внешнее по отношению к частицам механики пространство. В нём есть частицы. Им разрешено не только иметь положения, но и двигаться. Но то ли при­ро­да, то ли человек несовершенны и в пределах объёма (1.13) невозможно точно указать координаты и импульсы частиц одновременно. Символы qj  и   pj  означают среднеквадратичные отклонения. Их квадрат есть дисперсия возможных отклонений координат и импульсов от, якобы, существующей математической точки их значений.

    Как строго и подробно показано в [11], такое представление есть почти столетняя тра­диционная общепринятая ошибка. Движения и по­ло­же­ния неразделимы. Фазовое прост­ран­ст­во является реальностью приро­ды, а не математическим “фо­кусом”. В частности, классическая ме­ха­ника и строгое определение в ней энер­гии требуют, чтобы суще­ст­вовал случай конечного совместного предела при­­ра­­щений, ко­торые в по­нимании математики и механики аксио­ма­тически считаются бесконечно малыми. Поэтому реально соотношение (1.13) должно иметь вид:

    ,                     (1.14)

    где в правой части стоит не обязательно постоянная Планка (частный вид адиабатического инварианта), а один из многих конк­рет­­ных адиа­ба­ти­ческих инвариантов, который соответствует уровню иерар­хии энт­ро­пии-информации именно данной задачи (под­робности см. [11]). Утверж­дение (1.14) есть аксиома. Оно не может быть доказано или получено вы­водом из известных в механике уравнений Гамильтона. Конечно, в (1.14) следовало бы использовать символ “d” из какого-нибудь «ху­до­жественного шрифта, так как соответствующие приращения конечны. Но такового, единого для всех компьтеров, не обнаружилось. 

              С учё­том этих пояснений вернусь к задаче о нор­ми­ровке энтропии.

    В этой задаче признак (о котором говорилось при определении энтропии в начале главы) есть величина энергии молекулы. Ячейку за­даёт объём в 6N-мер­ном прост­ранстве конфигураций (про­ст­ранственных координат qj) и импуль­сов pj (характеристик дви­же­ния). В этой задаче можно принимать объём ячейки в фазовом пространстве приближенно в форме (1.13), а сам газ считать находящимся в обычном трёхмерном  объёме V.  Газ имеет полную энергию U. 

    Пусть число ячеек, определённых в фазовом пространстве указан­ным выше способом, оказалось M. Состояние одного j-того элемента системы определяют величины его координат qj и импульсов  pj . Число возможных состоя­ний системы     в этом случае задаёт подсчёт всех возможных вариантов мысленного заполнения ячеек (1.13) этими эле­мен­тами. В его результате получатся числа . Эти числа должны удовлетворять двум понятным условиям, которые на­зываются условиями нормировки.

    Первое из них в том, что сумма числа элементов во всех ячейках должна быть равна их общему числу в объёме  V  газа, то есть:

    .                                              (1.15)   

                Второе устанавливает, что сумма энергий    всех элементов сис­те­мы должна быть равна полной энергии газа, то есть:

    .                                           (1.16)

                Число возможных состояний такой системы в логарифмической фор­ме – энтропию – с помощью чисел  ni  и  N  можно записать в виде:

    ,                           (1.17)

    где в частном случае газа  Kk = kB – постоянной Больцма­на (см. [15]).

    Задача – определить с учётом условий нормировки (1.15), (1.16) распределение элементов системы по ячейкам фазового прост­ранства, которое соответствует максимуму энтропии  S.  Кстати, для определения энтропии Гиббса (1.1а) требование нормировки энтропии сохра­ня­­ется, но осуществляет он её другими методами (см. [18]).

    Результат решения этой задачи в том, что появляется пе­ре­мен­ная – температура системы  .  С её участием нормировка энтропии опреде­ляет взаимно одно­знач­ное соответствие энтропии  S  и новой перемен­ной, которую назы­вают статистической суммой  Z.  Она равна:

    .                                           (1.18)

    Статистическая сумма  Z,  как показано в [11], [12], позволяет ввести понятие о семантической информации в виде со­от­ношения:

    .                                          (1.19)   

                С учётом этого [11] нормировка энтропии с помощью температуры   ус­­та­навливает связь между свободной энергией Гельмгольца  F  и се­ман­­тической информацией в виде:

    .                                   (1.20)

                Процедура нормировки энтропии определяет энт­ро­пию как харак­те­ристику мак­си­мума вероятности состо­я­ния сис­те­мы. В силу изло­жен­но­го выше, нормировка энтропии опре­де­­ля­ет точ­ку на плос­ко­сти  и этим свя­зывает энтропию-инфор­ма­цию с семантической информацией и свободной энер­­ги­ей, а также и всем комплексом нетривиальных воп­ро­сов (не имеющих ответа в существующей науке) о связях однозначных экст­ре­мумов энер­гии (типа 4 на рис. 1.2) и экстремумов энтропии (1 – 3 на рис. 1.2), для которых решающие – слу­чайности.

                По определению, точку на плоскости можно опи­­­сать комплекс­ным чис­лом. Поэтому результат больц­ма­новс­кой нормировки энтро­пии ­задаёт энт­ро­пию-ин­фор­мацию (рис. 1.5) в виде функ­ции комп­лек­с­­но­го переменного:

    Рис. 1.5.

     
    .                                           (1.21)

                Напомню, что в теории функций комплексного пе­ременного i есть мнимая единица:   . Комплексная энтропия  S* неизбежно должна быть функцией от вероятностей, представленных в форме функций ком­п­­лекс­ного переменного. В таком виде вероятности известны в современ­ной науке. Это, например, комплексные цепи Маркова [16], [37].

     Выбор действительной и мнимой оси в оп­ре­де­­лении комп­лексной энтропии (1.21) можно пояс­нить тем, что свободная энергия, вы­ража­е­мая (1.20) че­рез семантическую ин­фор­мацию, может непос­ред­ст­вен­но пре­вра­щаться во внешнюю рабо­ту. Поэтому ло­гично ис­пользовать для семантической информации I дейст­витель­ную ось ко­ординат. Полу­ча­ю­ща­яся в ре­зуль­та­те нормировки энт­ро­пии функция ком­п­лекс­но­го пере­мен­­ного  S* есть  полная инфор­мация  о сис­те­ме. Плос­ко­с­ти пос­то­ян­­­ст­ва ади­а­­батичес­ко­го ин­­ва­ри­ан­та сис­темы  , которые определяет прин­цип максиму­ма про­из­вод­ства энтропии, в стро­гом виде есть плос­кость функ­ций ком­п­­лек­с­­но­го пе­ремен­но­­го.

    Комплексная форма энтропии как формальный математический приём вводилась в сим­плек­тической геометрии [38]. Но известные спо­со­бы введения комплексной энтро­пии отличаются от существа энтропии (1.21), как она введена в [39] и в этой книге.





     
    polkaknig@narod.ru ICQ 474-849-132 © 2005-2009 Материалы этого сайта могут быть использованы только со ссылкой на данный сайт.