Страница 17 - Разум природы и разум человека - А.М. Хазен - Философия как наука - Философия на vuzlib.su
Тексты книг принадлежат их авторам и размещены для ознакомления Кол-во книг: 64

Разделы

Философия как наука
Философы и их философия
Сочинения и рассказы
Синергетика
Философия и социология
Философия права
Философия политики

  • Статьи

  • align=left style='text-align:left'>“Демон Максвелла” – энтропия как мера неопределённости и информация как устранённая неопределённость

    Аксиоматически информация определена как запомненный слу­чай­ный выбор. Мера информации есть неопределённость, устранённая этим выбором – синтезом информации. В природе синтез информации ре­ализует запоминание на ос­нове критериев устойчивости рис. 1.2. Син­тез таким спо­со­бом информации создаёт объект. Количество инфор­ма­ции (1.1) определяет существование объекта и его свойст­ва. Этим мера не­определённости – энтропия превращена в меру энтропии-информа­ции.

    Для информации в процессах общения людей синтез информации про­­исходит иным образом. В его основе лежит существование цели пе­ре­­дачи информации. Запоминание слу­чай­ного выбора происходит на ос­но­ве критериев, которые заданы человеком. Фор­мула (1.1) как выраже­ние коли­чест­ва инфор­ма­ции сохраняется в виде (1.4), но при этом из­меняет смысл и знак. Кроме того, энтропия в ней не есть характеристика мак­си­мума веро­ят­­ности состоя­ния системы. Поясню это примером.

    В 1871 г. Максвелл в связи со вторым началом тер­мо­ди­намики предложил пара­док­сальную задачу, названную – “Демон Максвелла”.

    Рис. 1.9.

     
    Дан сосуд с га­зом, разделён­ный пе­ре­городкой на два от­сека А и В (рис. 1.9). В пе­ре­­го­родке между ними есть отверстие С, закры­тое двер­­­цей. Некое устройство-“су­ще­ство” D, ко­то­рое назвали “де­мо­ном Макс­велла”, имеет за­дан­­ную извне физических про­­цес­сов цель – анализирует ско­ро­­с­ти мо­­лекул га­за и от­кры­­ва­ет двер­­цу С для тех из них, ко­­то­рые име­­ют задан­ную ско­рость и поло­же­ние. Мож­­­­но эти па­рамет­ры выбрать так, что во вторую по­ловину сосуда бу­дут про­хо­дить толь­ко мо­ле­­ку­лы, ско­рости ко­то­рых на­много боль­ше средних в га­зе. Их дви­­же­ние в от­секе В хаоти­зи­ру­ет­ся в ре­зуль­тате стол­кно­ве­ний. Принцип от­бо­ра мо­ле­кул “де­­­мо­­ном” должен при­­­вести к то­му, что тем­пе­ра­ту­ра газа в от­секе В бу­дет вы­ше, чем в отсе­ке А. Па­ра­докс состоит в том, что повы­ше­­ние тем­пе­ра­ту­ры газа в отсеке В про­ти­во­­речит второму на­ча­лу тер­мо­ди­на­ми­ки.

    Максвелл считал, что его “демон” второе начало термодинамики на­­­­рушать не может. Детальные исследования на протя­же­нии более сто­ле­­тия это подтвердили (см., например, обзор [42]). Здесь я вернулся к “де­мону Максвелла” потому, что он даёт пример подхода к физической задаче, в которой не разграничена энтропия как физическая переменная, описывающая информацию (как меру неопределённости), и энтропия в терминологии цели, с помощью которой определяется устранённая не­оп­ре­­делён­ность (то есть тем способом, кото­рый лежит в основе теории ин­фор­ма­ции как науки о передаче сообщений). Кстати, именно анализ за­да­чи о “де­моне” в работе Л. Сциларда 1929 г. (непосредственно после фор­­мали­за­­ции Хартли понятия об информации в 1928 г.) был первым ис­сле­­до­ва­ни­ем о связях между энтропией и информацией.

    Работа “демона” заключается в том, что он определяет координаты и скорости молекул газа – имеет цель. Моле­ку­лы газа раз­личимы (нуме­ру­­емы). “Демон”, пропуская их через дверцу, должен оп­ре­делить их но­мер. Без этого задача некорректна. Нельзя с больц­ма­нов­с­ким газом нуме­ро­ванных молекул обращаться без учета этого важней­ше­го для него фак­та. “Демон” должен иметь “регистр” для запоминания номеров. Нет та­ко­го запоминания – нет результата деятельности “демона”. Ра­­­бота “де­мо­на” связывает запомненные номера с заданными величинами скорос­тей. По­ток моле­кул, образовавшийся в результате работы “де­мона” на вы­ходе из дверцы С, описывает запись в “регистре”. В ней содержится ве­личина ин­фор­­ма­ции – уст­ра­нён­ная “демоном” неопре­де­лен­ность, ко­то­рая в пре­де­ле равна энтропии SA со знаком минус – нео­пределённость устранена не путём физического процесса синтеза ин­фор­ма­ции, а с по­мо­щью за­писей в “регистре”, внешнем по отношению к схе­ме рис. 1.9.

    В этом физическом примере присутствуют главные особенности ин­формации как формализации человеческих взаимодействий (отличаю­щие её от информации как физической переменной) – внешняя по отно­ше­нию к физическим процессам заданная цель и столь же внешнее запо­ми­нающее устройство.

    Уст­ра­нение парадоксальности задачи о “демоне Макс­вел­ла”, осно­ван­­ное на учёте необ­хо­ди­мо­сти “регистра” и его очи­ст­ки от накоплен­ных данных, дано Р. Лан­да­у­э­ром из фирмы IBM в ходе ис­сле­дований тер­­­мо­­динамики работы компью­теров [42]. Помимо этого существует об­шир­ная литера­тура, в которой рассмат­ривается дру­гой путь устранения парадоксаль­но­с­ти “демона”, исполь­зу­ю­щий кванто­вые взаимодействия, необходимые для измерений в этой задаче. В нём цель и внешние по от­ношению к системе взаимодействия так же присутствуют, но завуа­ли­ро­ваны, поэтому анали­зи­ровать этот путь не буду.

    Пример “демона Максвелла” опять показывает, что понятие об инфор­ма­ции и о способе прев­ращения энт­ропии из меры неопределён­но­с­ти в ме­ру инфор­ма­ции, имеет два принципиально от­личных смысла:

    – синтез информации в физичес­ких системах как запоми­на­ние слу­чай­но­го выбора на основе критериев устойчивости с участием энтропии (в стро­гом случае) как функции комплексного перемен­ного.

    – мыс­ленная реализа­ция цели и “ре­гист­ров”, экви­ва­лент­ных по функ­циям памяти ком­пью­те­ров.

    Необходимо дополнительно к примеру “демона Максвелла” про­ана­лизировать как и что именно понимается в физике при заявлениях о том, что энтропия есть мера неопределённости – мера “незнания” пове­дения элементов системы. В качестве источника известных форму­ли­ро­вок в таком анализе приму, например, книгу [22], в частности потому, что её определения неоригинальны и повторяются во многих других учеб­­ни­ках и монографиях. Цитаты из этой книги в по­сле­дующих абзацах вы­де­лены кавычками без дополнительных напоми­на­ний источника. Курсив в них мой.

    Рассматривается модель газа, для которой в предельном состоянии нулевой абсолютной температуры нет теплового движения молекул. Из изложенного в этой главе понятно, что энтропия есть иерархическая пе­ременная и нуль её отсчё­та можно задавать произвольно. В [22] при­ни­мается, что “в этих условиях наше знание микроскопического состояния тела является полным” – все моле­ку­лы, независимо от своих прост­ран­ст­вен­ных координат, имеют оди­на­ко­вое сос­тояние. Его легко установить в те­ориях или экспериментах. Обратите внимание на подчёрк­ну­тое – в физике в дополнение к её за­конам появляется че­ло­век и его че­ло­веческие понятия и ощущения.

    При любой ненулевой температуре существует “наше <че­ловека как исследователя> полное незнание” микроскопического сос­тояния га­за. “Незнание” возникает потому, что гипотеза о молекулярном хаосе “рав­ноценна признанию того, что мы бессильны проследить за дви­же­ни­ем отдельных молекул”. Однако в этом случае определимы (в те­ории или наблюдениях) од­нознач­ные макроскопические параметры газа, на­при­мер, давление и температура. Можно также “определить сте­пень на­ше­го незнания”, вычислив число возможных состояний системы  .  Его ко­ли­чественное выражение есть энтропия физической системы вида (1.1). От­сю­да в [22] делается вывод, что “информация о микроскопическом со­с­­то­я­нии тем меньше, чем больше число  ”.

    Простите, почему?! Ведь природа существует вне нас. Ей безраз­лично, что знает о ней человек и что он может или не может о ней уз­нать. Реальностью для природы является хаос, совместимый с дан­ны­ми кон­кретными услови­я­ми. Он является детерминированным состоя­ни­ем и определяет однознач­но макроскопические свойства системы (в дан­ном при­­мере температуру и давление). Количественное выражение хаоса чис­­лом – энтропией – строго и точно задало все свойства макроскопи­чес­кого объекта или процесса. Такой хаос есть незнание только в тер­ми­нах поко­ле­ний лю­дей, сформировавших модель с “незнанием ”.

    Информация – это устранённая неопределённость. Хаосу от­ве­­чат устойчивое (запомненное) состояние мак­­­си­мума энтропии, то есть чис­ло (максимум ln  или другие экстремумы рис. 1.2). Его сущест­во­ва­ние (как ре­зуль­тат синтеза информации) устранило неопределённость, отоб­разив это свойствами возникшего объекта или процесса. Имен­но по­э­тому энт­ропия как физическая переменная есть мера информации в при­роде. Её можно выразить в терминах информации при передаче со­об­щений че­ловеком, введя мысленную операцию измерения параметров одной мо­ле­кулы. Результат измерений можно считать мерой такой ин­фор­мации. Его можно связать с энтропией, присвоив ему знак минус. Оп­реде­лять по­лезен или вреден для человека-исследователя такой спо­соб описания природы есть его право как создателя моделей – при­ро­де это безразлично. Но в законах природы только она сама может опре­де­лять, что есть знание, а что – незнание.  

    Важнейший информационный природный процесс есть возник­но­­ве­­ние новых объектов со своими свойствами. Для этого необходимо из­ме­­не­­ние количества информации как физической переменной. Может ли оно быть запомнено? – решает устойчиво­с­ть про­цессов. Анализ это­го (если необходимо одновременно учитывать вклад в экст­ре­мум и энт­ро­пии, и энергии) необходимо проводить на основе энт­ропии как функ­­ции комплексного переменного.

    Например. Для природы возникновение жизни первично есть абио­ген­ный син­­тез класса молекул РНК и РНК, создающих иерархически но­вую сту­пень случайностей (неопределённости), а тем самым новую сту­пень иерар­хи­чес­ко­го роста энтропии-информации. При синтезе инфор­ма­ции в РНК и ДНК (на уровне их образо­ва­ния как молекул) запоми­на­ние про­и­зо­шло на ос­но­­ве критериев устойчи­вости в комплексной плос­ко­сти. Ре­зуль­тат – РНК или ДНК как класс химических соединений, глав­ная осо­бен­ность ко­торых оди­на­ковая свободная энергия, от­не­сен­ная к со­от­вет­ст­ву­ю­щим ви­дам хими­чес­ких связей нук­ле­отидов и ко­донов. В этом участ­во­вала энт­ро­пия РНК или ДНК в обычной форме фи­зи­ческой химии. Об­разование молекулы РНК или ДНК уст­ранило неоп­ре­де­лён­ность, правда, парадоксально. Энтро­пия в физи­чес­кой хи­мии – ме­ра бес­порядка. Энтропия в составе моле­кулы ДНК, казалось бы, та­ковой и ос­та­лась. Однако для конкретной ДНК она есть за­помнен­ный слу­чай­ный вы­бор (информация), так как данная молекула суще­ст­ву­ет как объект.

    Класс молекул РНК или ДНК как энергетически равноправных слу­­чайных форм становится источником неопределённости (случайных вы­борок) для новой сту­пени иерархии энт­ропии-информации. Естест­вен­ный отбор много­крат­но выделял из слу­чай­ностей таких РНК или ДНК единствен­ные и запоминал с помощью их размножения. Такой иерар­­хически новый синтез ин­фор­мации тем же парадоксальным образом прев­ратил новую не­опре­де­лён­ность в ин­фор­мацию.

    Жизнь определяет энтропия-информация в РНК или ДНК как ком­би­нации химических реакций с её участием. Человек эти же количества инфор­ма­ции может описывать кодировкой – информацией в терминах двух че­ты­рёхбуквенных кодов, образованных из одного пяти­бук­венного (в РНК-со­держащих формах жизни есть пятый нуклеотид, который не встре­ча­ет­ся в ДНК-содержащих). Информация в ДНК может быть опи­са­на не только в тер­ми­нах естественных единиц измерения, заданных иерар­­­хичес­ки­ми адиа­ба­тическими инвариантами. Она мо­жет быть также пред­ставлена абстрактной формулой (1.6) при ос­но­ва­нии лога­риф­ма 4 и мно­­жи­теле при энтропии-информации вида (1.5), или равноправно в битах, или в натах. Существо дела от этого не зависит. Такая инфор­ма­ция не есть физическая переменная – реальность природы. Это только один из способов человеческой кодировки природных переменных. Для человека он неоценимо полезен, но это его дело, а не Природы.





     
    polkaknig@narod.ru ICQ 474-849-132 © 2005-2009 Материалы этого сайта могут быть использованы только со ссылкой на данный сайт.