Добавил:
Upload Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:
КСЕ / Горбачев_КСЕ 2003.pdf
Скачиваний:
334
Добавлен:
13.02.2015
Размер:
8.23 Mб
Скачать

Янко Слава (Библиотека Fort/Da) || http://yanko.lib.ru

167

«Поскольку день и ночь, круговороты месяцев и лет, равноденствия и солнцестояния зримы, глаза открыли нам число. Дали понятие о времени и побудили исследовать природу Вселенной».

Архимед (287—212 до н.э.) считал, что спираль как геометрическая фигура соединяет цикличность с поступательным движением. По его мнению, может быть, спираль подойдет для наглядного образа времени, соединив поток времени и окружность.

В проявлении свойств времени для живых организмов отражается та же таинственная непознанность пока сущности времени вообще. Приведем высказывания ученых, так или иначе касавшихся этой проблемы. «Время — всего иллюзия», — отмечал И.Р. Пригожин вслед за А. Эйнштейном. А. Эддингтон писал, что «в любой попытке навести мост между областями опыта, принадлежащими к духовной и физической стороне нашей природы, время всегда занимало ключевую позицию», а французский философ А. Бергсон (1859—1941) считал, что «время либо изобретение, либо вообще ничто». В физике становления И. Р. Пригожина время является «возникающим» свойством. Но «кто не знает цену времени, тот не рожден для славы» (народная мудрость). «Ес-

279

ли нет души, которая отсчитывает время, оно пропадает», — отмечал Н. Н.

Молчанов, а Ф. М. Достоевский определял время как отношение бытия к небытию. Современная физика, описывающая сущность строения материи, развивается в

направлении, начатом А. Эйнштейном, и пытается объяснить, что природа всех физических взаимодействий едина. Весьма вероятно, что в основе свойств физической материи, в том числе и живой, лежат сложные геометрические особенности пространства—времени. Установление корреляций между индивидуальным развитием человека в пространстве и времени, его геометрическим строением и физиологическими

ипсихическими качествами является одной из задач физики живого.

Взаключение приведем отрывок из повести российского писателя Ф. Искандера «Думающий о России и американец». О времени и пространстве он рассуждает так:

«Думающие о России додумались до великой планетарной мысли, которая повернет ход мировых событий. Получилось так, что евреи захватили время. Но, увлекшись захватом времени, евреи потеряли пространство. А мы, русские, увлекшись захватом пространства, выпали из времени. Величайшая задача самой природы соединить еврейское время с русским пространством. Это создаст между русскими и евреями новый закон всемирного тяготения. Значит, в руках евреев время. У нас в руках пространство. А что такое время ? Кстати, американское научное открытие: время деньги. Время тянется к пространству или пространство тоскует по времени. Это факт, хотя и метафизический. В результате соединения времени с пространством инвестиции посыпятся на Россию, строго и равномерно оплодотворяя ее пространство. Время ищет свое пространство, пространство ищет свое время».

11.6. Энтропия и информация в живых системах

Нехаотичесакие системы столь же типичны, как курица с зубами.

Форд

Жизнь на Земле - это островки информации в безбрежном море энтропии окружающего мира.

И. Вигнер

Информация для живого организма, является важным фактором его эволюции. Русский биолог И.И. Шмальгаузен [153] был одним из первых, кто обратил внимание на связь информации с

280

энтропией и развил информационный подход к теоретической биологии. Он же установил, что процесс получения, передачи и обработки информации в живых организмах должен подчиняться известному принципу оптимальности. Применительно к живым организмам можно считать, что «информация — это запомненный выбор возможных состояний». Такой подход к информации означает, что возникновение и передача ее живой системе — это процесс организации этих состояний, и, следовательно, в ней может происходить и процесс самоорганизации. Мы знаем, что эти процессы для живой системы могут приводить к ее упорядочению и, значит, к уменьшению энтропии. Система стремится уменьшить внутреннюю энтропию, отдавая ее во внешнюю среду.

Напомним, что энтропия также может считаться биологическим критерием

Горбачев В. В. Концепции современного естествознания:—М.: ООО «Издательский дом «ОНИКС 21 век»: ООО «Издательство «Мир и Образование», 2003. — 592 с: ил.

Янко Слава (Библиотека Fort/Da) || http://yanko.lib.ru

168

оптимальности и служит мерой свободы системы:

чем больше состояний доступно системе, тем больше энтропия.

Если состояния имеют разные вероятности, то энтропия

где Pi — вероятность i-го состояния, w — число состояний. Если же все состояния одинаковы, то Рi = 1/w и тогда

что совпадает с формулой, приведенной в гл. 7.

Энтропия максимальна именно при равномерном распределении вероятности, которое тем самым уже не может привести к дальнейшему развитию. Всякое отклонение от равномерности восприятия приводит к уменьшению энтропии. В соответствии с приведенными выражениями системы энтропию определяют как логарифм фазового пространства. Заметим, что экстремальный принцип энтропии позволяет находить устойчивое состояние системы.

Чем больше у живой системы информации о внутренних и внешних изменениях, тем больше у нее возможностей изменить свое состояние за счет обмена веществ, поведенческих реакций или адаптации к полученному сигналу, например, резкий вы-

281

брос адреналина в кровь в стрессовых ситуациях, покраснение лица у человека, повышение температуры тела и т.д. Полученная организмом информация так же, как энтропия, влияет на процессы ее организации. Общее состояние системы, ее устойчивость (гомеостаз в биологии как постоянство структуры и функций) будут зависеть от соотношения между энтропией и информацией. Для идеальных закрытых систем с учетом закона сохранения субстанций установлено эмпирическое обобщение:

количество информации I и энтропии S постоянно, т.е.

S + I = const,

откуда следует, что если возрастает количество информации в системе, то уменьшается ее энтропия, и наоборот.

Количество информации, необходимой для реализации состояния, можно также согласно одному из создателей теории информации американскому ученому К. Шенону выразить через вероятность. Мерой информации является соотношение

I = -lg w = lg P,

где w — число возможных состояний, Ρ — вероятность состояния.

11.6.1. Ценность информации

По мере развития кибернетики как науки об управлении процессами в неживой и живой природе выяснилось, что имеет смысл не просто количество информации, а ее ценность. Полезный информативный сигнал должен выделиться из информационного шума, а шум — это максимальное количество равновесных состояний, т.е. максимум энтропии, а минимум энтропии соответствует максимуму информации, и отбор информации из шума — это процесс рождения порядка из хаоса. Поэтому уменьшение однообразия (появление белой вороны в стае черных) будет означать уменьшение энтропии, но повышение информативности о такой системе (стае). За получение информации нужно «платить» увеличением энтропии, ее нельзя получить бесплатно! Заметим, что закон необходимого разнообразия, присущий живой природе, вытекает из теорем К. Шенона. Этот закон был сформулирован У. Эшби (1915—1985):

«...информацию невозможно передать в большем количестве, чем это позволяет сделать количество разнообразия».

Примером соотношения информации и энтропии является возникновение в неживой природе упорядоченного кристалла из

282

расплава. При этом энтропия выросшего кристалла уменьшается, но возрастает информация о расположении атомов в узлах кристаллической решетки. Заметим, что объем информации комплементарен объему энтропии, так как они обратно пропорциональны, и поэтому информационный подход к объяснению живого не дает нам больше понимания, чем термодинамический.

Горбачев В. В. Концепции современного естествознания:—М.: ООО «Издательский дом «ОНИКС 21 век»: ООО «Издательство «Мир и Образование», 2003. — 592 с: ил.

Янко Слава (Библиотека Fort/Da) || http://yanko.lib.ru

169

Необходимо учитывать кинетику образования диссипативных структур и ценность информации. Ценность информации как ее качество определяют из соотношения

V = lg (P/P0),

где Р0 и Ρ — вероятности достижения какой-то цели до и после получения информации.

Ценность информации может быть положительной, когда Ρ > Р0, и отрицательной, если Р0 > Р. В последнем случае она является дезинформацией. Д. С. Чернявский [149] приводит такой пример практического смысла ценности информации. Допустим, нам необходимо успеть на поезд. Если пользоваться расписанием движения поездов, то вероятность достижения цели (успеть на поезд) сильно повышается, Ρ ≈ 1. В этом случае ценность информации (расписания) положительна. Однако если расписание устарело или по какой-то причине нарушено, то вероятность достижения цели понижается и Ρ < Р0. В этом случае ценность информации отрицательна. Может быть и случай, когда информация вообще не может стать ценной: например, когда наборщик в тексте переставил буквы так, что текст потерял всякий смысл. Количество информации сохранилось, но ценность ее для читателя стала равной нулю.

Информация обычно измеряется в битах; бит — единица измерения в двоичной системе счисления. Для простейшего случая, например — выбора между двумя

вариантами w = 2 и p = 1/2

имеем I = lg2 2 = 1 бит. Оказалось, что живой организм по информативности значительно превосходит современные ЭВМ (I ≈ 102 — 104 бит), клетка — 109 бит, а в целом живой организм может содержать до 1019 мегабит информации. Для примера, наш

алфавит, состоящий из 32 = 25 букв, в упорядоченном тексте содержит информацию всего

I = lg2 25 = 5 бит.

Одна стандартная страница информации содержит сотни бит. Человек способен воспринимать 25 бит в секунду, центральная нервная система ~ 30—40 бит в секунду. Однако по некоторым

283

каналам эта способность значительно выше: по зрительному каналу 107 — 108, по слуховому — 103 — 104 бит в секунду.

Сложность кибернетической системы, по фон Нейману, — это число компонент, образующих систему. В многокомпонентных системах эту сложность в ряде случаев труднее описать, чем изготовить саму систему. Сложность в битах определяется как минимальное число двоичных знаков, которые содержат всю информацию об объекте, достаточную для его воспроизведения. Однако понятие ценности информации шире понятия сложности и для живых организмов играет большую роль, чем усложнение системы, поскольку для них важнее не принцип возрастания сложности, а принцип возрастания ценности информации.

Одной из существенных особенностей живой системы является способность создавать новую информацию и отбирать наиболее ценную для него в процессе жизнедеятельности. Чем более ценная информация создается в системе и чем выше критерий ее отбора, тем выше эта система находится на лестнице биологической эволюции.

Ценность информации, особенно для живых организмов, зависит от цели, с которой она используется. Мы уже отмечали (п. 11.2.1), что стремление выжить как главная цель живых объектов лежит в основе всей эволюции биосферы. Это относится как к высшим, так и к простейшим организмам. Целью в живой природе можно считать совокупность поведенческих реакций, способствующих выживанию и сохранению организмов в борьбе за существование. У высших организмов это может быть осознанно, но это не означает, что цель отсутствует. Поэтому для описания живой природы ценность информации — понятие содержательное и связано это понятие с важным свойством живой природы — способностью живых организмов к целеполаганию.

Согласно Д. С. Чернявскому, для неживых объектов целью можно было считать стремление системы к аттрактору как к неустойчивому конечному состоянию. Однако в условиях неустойчивого развития аттракторов может быть много, и это позволяет считать, что ценной информации для таких объектов неживой природы нет. Может быть, поэтому в классической физике понятие информации для описания процессов в неживой природе не использовалось: она развивалась в соответствии с законами природы, и этого было достаточно для описания процессов на языке физике. Можно даже сказать, что в неживой природе если есть цель, то нет информации, а если есть информация, то нет цели. Вероятно, на этом основании можно провести разграниче-

Горбачев В. В. Концепции современного естествознания:—М.: ООО «Издательский дом «ОНИКС 21 век»: ООО «Издательство «Мир и Образование», 2003. — 592 с: ил.

Янко Слава (Библиотека Fort/Da) || http://yanko.lib.ru

170

284

ние неживых объектов от живых, для которых понятия цели, информации и ее ценности являются конструктивными и содержательными. Поэтому наряду с другими рассмотренными признаками развития самоорганизующихся систем критерием биологической эволюции является возрастание ценности информации, рождающейся в системе и передаваемой затем живым организмом генетически следующим поколениям.

Необходимая для развития живой системы информация возникает и приобретает ценность путем отбора, согласно которому благоприятные индивидуальные изменения сохраняются, а вредные уничтожаются. В этом смысле ценность информации — это перевод на язык синергетики дарвиновской триады наследственности, изменчивости и естественного отбора. Происходит как бы самоорганизация необходимой информации. Это позволит через это понятие связать дарвиновскую теорию эволюции, классическую теорию информации и молекулярную биологию.

Закономерности биологической эволюции в свете теории информации будут определяться тем, как реализуется в процессе развития живого принцип максимума информации и ее ценности. Следует заметить, что «эффект границы», привлекающий все живое, о котором мы уже говорили, подтверждается тем, что граница более информативна.

11.6.2. Кибернетический подход к описанию живого

Выделение живым организмом полезной информации и экономичность ее хранения в виде отдельных признаков связаны с дискретностью получаемой информации, что помогает рационально ее отбирать и хранить. Такой кибернетический подход позволяет представить память как многоуровневую структуру блоков информации, дает возможность живому организму экономно перерабатывать информацию и самосовершенствоваться.

Кроме того, кибернетика позволяет применить общие принципы воздействия одной системы на другую через отрицательные и положительные связи. Это обусловлено с тем, что независимо от иерархического уровня принципы управления для живых и неживых объектов одни и те же: управляющий субъект, управляемый объект и система обратных связей. Принцип обратности связи широко используется в науке и технике, и мы уже обсуждали отрицательную обратную связь, ослабляющую внешнее воздействие на систему, и положительную, увеличивающую это воздействие, первая стабилизирует систему, вторая — развивает ее.

285

Применительно к живому это реализуется в признаке доминанты советского физиолога А. А. Ухтомского (1875—1942): всякая деятельность организма имеет определенную устойчивость, он обладает инерционностью — на слабый аномальный для него стимул организм отвечает компенсирующей реакцией, усиливающей его основную деятельность. Организм сопротивляется внешнему воздействию. Можно провести аналогию с известным принципом Ле Шателье, который для рассматриваемых самоорганизующихся систем состоит в том, что система, выведенная внешним воздействием из состояния с минимальным производством энтропии, стимулирует развитие процессов, направленных на ослабление внешнего воздействия.

Но сильный стимул для организма вызывает срыв регуляции и переключает его на новую деятельность. В синергетике и физике такой переход на новый энергетический уровень наблюдается в лазерах при создании инверсной заселенности, при возникновении неустойчивости, переходе в новое неустойчивое равновесие и т.д. В биологии можно привести такой пример: лакающая молоко кошка; если ее слабо потянуть за хвост, то лакание только усилится, а если сильно, то она бросит свое занятие, мяукнет, да еще и цапнет. Этот же пример иллюстрирует и физиологический закон — все или ничего: возбудимый субъект или не реагирует, или реагирует с максимальной интенсивностью.

Поскольку информация и энтропия противоположны по смыслу, то можно считать, что отрицательная энтропия (негэнтропия) и есть питательная для живого организма информация. Поэтому можно считать, что живое «питается» не отрицательной энтропией, а информацией. Пока мы получаем информацию и нуждаемся в ней — мы живем! Человек путем использования информации противостоит энтропийнодезинтегрирующим факторам воздействия внешней среды и тем самым сохраняет свою структуру и равновесие. Можно сказать, что упорядоченность свойств живого

Горбачев В. В. Концепции современного естествознания:—М.: ООО «Издательский дом «ОНИКС 21 век»: ООО «Издательство «Мир и Образование», 2003. — 592 с: ил.

Соседние файлы в папке КСЕ