Информация и формулировка аксиом термодинамики - Введение меры информации в аксиоматическую базу механики - А.М. Хазен - Философия как наука - Философия на vuzlib.su
Тексты книг принадлежат их авторам и размещены для ознакомления Кол-во книг: 64

Разделы

Философия как наука
Философы и их философия
Сочинения и рассказы
Синергетика
Философия и социология
Философия права
Философия политики

  • Статьи

  • Информация и формулировка аксиом термодинамики

                Рассматривать информацию как физическую переменную впервые предложил Н. Винер. Мера количества информации есть величина энтро­пии  S.

                Физическая переменная, как правило, есть аксиоматически введен­ное понятие. Отличие энтропии от таких переменных как, например, объем в том, что живые организмы не имеют органов для непосред­ст­вен­ного ощущения энтропии. Энтропия есть такая же матери­аль­ная пере­мен­ная, как и все остальные физические переменные

    Понятие – материальная физическая переменная означает, что эта пе­ре­мен­ная может быть измерена при наблюдениях в природе или в целе­­направленно пос­тав­­ленных экспериментах, а также может быть ис­поль­­­зована в качестве переменной мате­­матических задач и решений. Для энтропии это всё есть реальность.

                Для общего случая физических задач классическое определение энтро­пии требует небольших, но существенных, уточнений.  Они не про­ти­воречат известному, а дополняют его. Сформу­ли­рую отобра­жа­ющие это изменения аксиоматики, ранее вве­ден­ные мною в [2] – [6].

                Если заданы признаки, отличающие друг от друга элементы сис­те­мы, их состояния, условия взаимодействия элементов между собой, то энтропия как функция состояния системы определена в виде:

    S  Kln(1.1)

    где K – адиабатический инвариант системы и  – функция, описываю­щая число состояний, которые может при­ни­мать система, об­ра­зованная многими элементами. Вид функции   зависит от вида стати­стики, который характерен для данной задачи и её кон­кретных особен­но­стей. Число возможных состояний   функ­цио­нально связано с веро­ят­­ностью   этих состояний. Поэтому определение энтропии, выражен­ное через вероятности состояний:

    S K ln(1.1a)

    равноправно с определением (1.1), но отличается от него знаком, так как всегда вероятности   1.  Далее в тексте этой книги, если специально не оговорено, ссылка на (1.1) равноправно подразумевает и (1.1а).

                В определении энтропии (1.1) вид функций    или    зависит от конкретных постановок задач и не обязательно подразумевает ту форму, кото­рую они имели у Больцмана или Гиббса.

                Когда речь идет, например, о тепловых процессах, то аксиомати­чес­­ки посту­­лируется, что классы функций    или    и величина раз­мер­ного множи­теля  K kB (постоянной Больцмана) в (1.1) заданы  a priori. В литературе обосно­вания этого используют эмпирические аргументы.

                Постоянная  K  определяется признаками, отличающими друг от дру­га элементы системы. В этой работе преимущественно рассматри­ва­ет­ся энтропия, для которой  K  есть дейст­вие как переменная механи­ки.

                В этой работе энтропия определена как экстремум для выра­же­­ния (1.1), то есть как характеристика максимума вероятности состоя­ния системы. Поэтому неотъемлемой частью определения энтропии (1.1) являются условия нормировки энтропии, с помощью которой находят её максимум.

                В природе должен существовать процесс возникновения новых объек­­­тов или их состояний, в описании которых участвует мера коли­чест­ва инфор­ма­ции (1.1), то есть процесс создания информации вновь –синтез информа­ции.

                Аксиоматически существование энтропии-информации, ее глав­ные свойст­ва и выбор нуля отсчета для нее определяют три начала тер­мо­дина­ми­ки. Сформулирую их в следующем виде [2] – [6], который нес­колько отли­чает­ся от классического, но не противоречит ему. 

    Существует функция состояния системы энтропия-инфор­ма­ция (1.1) – мера количества информации в пределах заданных приз­на­ков и условий для наиболее вероятного состояния системы из многих элементов. Физическая система, не содержащая инфор­ма­ции о себе самой, не может реализоваться. Синтез информации превращает эн­т­ро­пию как меру информации, которой недостает до полного описания системы, в макроскопические свойства объек­тов или физических пере­мен­ных.

    Самопроизвольные процессы в системах из многих элемен­тов направлены в сторону максимума энтропии:  максимума коли­чества ин­формации, необходимого для описания индивидуальных элементов системы при заданных для них признаках и условиях. Вечное равно­весие невозможно. 

    Энтропия-информация может суммироваться при разных вхо­­дя­щих в её определение признаках и условиях, учитывая урав­нения связи их между собой. Для любых, входящих в определение энтропии (1.1) признаков и условий, существует нуль отсчета энт­ропии-инфор­ма­ции, который зависит от них. Энтропия-информа­ция есть положи­тель­но определенная переменная, однако сущест­во­ва­ние разных ну­лей отсчета разрешает в конкретных задачах использовать ее с отри­ца­тельным знаком.

                Сохранение энергии, которое обычно принимается в качестве пер­во­го нача­ла термодинамики, пропущено в системе аксиом  I  III  неслу­чай­но. Закон сохранения энергии в любой своей формулировке воле­вым обра­зом ограничивает рассматриваемые в данной задаче формы энер­гии. Например, закон сохранения механической энергии заведомо не выпол­няется точно, так как существует тепло, в которое при движении элемен­тов системы переходит механическая энергия.  Сохранение энер­гии как аксиома для этого взаимодей­ст­вия лежало в основе исторически пер­вич­ных результа­тов термоди­на­мики. Но далее в термодинамику была вклю­чена электромагнитная, хи­ми­ческая энергия. Понятия энергии и потен­­циалов эффективны в абст­рак­т­ных задачах, связанных с инфор­ма­цией при человеческом общении. Наконец, исходно сохранение энергии есть следствие однородности вре­ме­ни, которую нельзя безоговорочно постулировать в качестве закона для всех масштабов и этапов процессов в природе. Достоверно, что Вселенная расширяется и время не может быть безого­во­роч­но однородным.

                Аксиома сохранения энергии потеряла однозначность и преврати­лась в условие конкретных термодинамических задач, зависящее от того, какие формы энергии в них учитываются.  Метод исследований, осно­ван­ный на сохранении тех форм энергии, которые названы в усло­виях за­да­чи, есть главный признак термодинамики как об­лас­ти науки:  мате­ма­ти­ческие методы термодинамики основаны на сох­ра­не­нии энергии.

                Главная причина того, что сохранение энергии не может быть аксио­ма­тической основой термодинамики и ее обобщений для инфор­мационных процессов, в том, что аксиома сохранения энергии (как пер­вич­ная) тавтологична аксиоме об окончательном равновесии как “цели” всего сущего.  Поэтому аксиома сохранения энергии противо­ре­чит аксиоме, которой является второе начало термодинамики. Включить сохранение энергии в аксиоматическую базу термодинамики и ее обоб­ще­ний, не создавая аксиома­ти­ческой противоречивости, можно при сле­дую­щей формулировке аксиомы о сохранении энергии:

    Реализуемая система обладает функцией состояния – энер­ги­ей. Допустима идеализация, называемая замкнутой системой, для которой спра­ведлив закон сохранения энергии. Энергия систе­мы воз­растает (или умень­шает­ся) в результате взаимодействия сис­темы с окружением.  Идеализация в виде замкнутой системы в любой точке сво­ей границы находится в статическом и динамичес­ком равнове­сии с окружением.

    Идеализированное понятие замкнутой системы нуждается в пояс­нении, связанном с ролью флуктуаций в процессах природы. С учетом флуктуаций возможен такой случай, когда динамическое равновесие на границах системы гарантирует сохранение энергии в системе только в сред­нем. Изменяющееся при флуктуациях соотношение потоков энергии во времени меняет её поведение – система откры­тая, хотя в сред­нем энер­гия в ней сохраняется неизменной. Открытые системы такого типа подробно рассмотрены в [23].  

                В общем случае, для строгих постановок задач энергия  Е  системы определена в виде двух составляющих. Первая из них зависит от сил  Xi , обладающих потенциалом.  Она име­ет вид ,  где  xi  описывает ин­тервалы, на которых  действуют силы  Xi.  Вторая составляющая зави­сит от количества информации в систе­ме – энтропии  S.  Эта составля­ю­щая энергии есть , где  – температура систе­мы, есть сило­вая пере­мен­ная, сопряженная с мерой информации как количественной.

                К сожалению, понятие о формах энергии и о том, что закон сохра­не­­ния энергии всегда конкретен по отношению к ним, хотя и очевидно, но некоторыми научными работниками вопринимается с трудом. Таких ото­шлю к учебнику, например, [24].

                Энтропия-информация есть характеристика функции распределе­ния в системах. Эту её особенность подчеркнул А. Эйнштейн в класси­ческой работе [25]. В такой форме энтропия использовалась в работах   К. Шеннона. Подробно вопросы связи энтропии и функций распределе­ния рассмотрены, например, в книге [26].

     





     
    polkaknig@narod.ru ICQ 474-849-132 © 2005-2009 Материалы этого сайта могут быть использованы только со ссылкой на данный сайт.