Содержание. 1. Введение.2. Чтоизмерил Клод Шеннон?3. Пределыэволюционной изменчивости информационных систем.4. Ограниченностьадаптации биологических видов.5. Этапыразвития теории энтропии.6. Методыисчисления количества структурной информации и информационной энтропии текстов.7. Информационно-энтропийныесоотношения процессов адаптации и развития.8.
Информацияи энергия.9. Заключение.10. ВВЕДЕНИЕВо второйполовине XX века произошли два события,которые, на наш взгляд, в значительной мере определяют дальнейшие пути научногопостижения мира. Речь идет о создании теории ин формации и о началеисследований механизмов антиэнтропийных процессов, для изучения которыхсинергетика привлекает все новейшие достижения неравновесной термодинамики,теории
ин формации и общей теории систем.Принципиальное отличиеданного этапа развития науки от предшествующих этапов заключается в том, что досоздания перечисленных направлений исследований наука способна была объяснитьлишь механизмы процессов, приводящих к увеличению хаоса и возрастанию энтропии.Что касается разрабатываемых со времен Ламарка и Дарвина биологических иэволюционных концепций, то они и по сей день не имеют строгих научныхобоснований и противоречат
Второму началу термодинамики, согласно которому сопровождающее все протекающие в мире процессывозрас тание энтропии есть непременный физический закон.Заслуга неравновеснойтермодинамики заключается в том, что она сумела выявить механизмыантиэнтропийных процессов, не противоречащих Второму началу термодинамики,поскольку локаль ное уменьшение энтропии внутри самоорганизующейся системывсегда оплачивается большим по абсолютной величине возрас танием энтропиивнешней среды.Важнейшим шагом на путипостижения природы и механизмов антиэнтропийных процессов следует введениеколичественной меры информации. Первоначально эта мера предназначалась лишь длярешения сугубо прикладных задач техники связи.Однако последующие исследования в области физики и биологии позво лили выявитьуниверсальные меры, предложенные К.Шен ноном,позволяющие установить взаимосвязь между количеством информации и физическойэнтропией и в конечном счете определить сущность новой научной интерпретациипонятия ин формация как мерыструктурной
упорядоченности самых разнообразных по своей природе систем .Используя метафору,можно сказать, что до введения в науку единой информационной количественноймеры представленный в естественно-научныхпонятиях мир как бы опирался на двух китов энергию и вещество. Третьимкитом оказалась теперь информация, участвующая во всех протекающих в мирепроцессах, начиная от микрочастиц, атомов и молекул и кончая функциониро ваниемсложнейших биологических и социальных систем.
Естественно, возникаетвопрос подтверждают или опровергаютэволюционную парадигму происхождения жизни и биологических видов новейшиеданные современной науки?Для ответа на этотвопрос необходимо прежде всего уяснить, какие именно свойства и сторонымногогранного понятия ин формация отражает та количественная мера, которую ввел в науку К.Шеннон.Использование мерыколичества информации позволяет анализировать общие механизмы информационно-
энтропийных взаимодействий, лежащих в основевсех самопроизвольно протекающих в окружающем мире процессов накопленияинформации, которые приводят к самоорганизации структуры систем.Вместе с теминформационно-энтропийный анализпозволяет выявить и пробелы эволюционных концепций, представляющих собой неболее чем несостоятельные попытки сведения к простым механизмам самоорганизациипроблему происхождения жизни и биологических видов без учета тогообстоятельства, что системы такого уровня сложности могут быть созданы лишь наоснове той информации, которая изначально заложена в предшествующий ихсотворению план.Проводимые современнойнаукой ис следования свойств информационных систем дают все основанияутверждать, что все системы могут формироваться только сог ласно спускаемым сверхних иерархических уровней правилами, причем сами эти правила существовалираньше самих систем в форме изначального плана идеи творения .ЧТО ИЗМЕРИЛ КЛОД ШЕННОН?В основутеории информации положен предложенный
К.Шенноном метод исчислений количествановой непредска зуемой и избыточной предсказуемой информации, содержащейся в сообщениях,передаваемых по каналам техничес кой связи.Предложенный Шеннономметод измерения количества ин формации оказался настолько универсальным, чтоего применение не ограничивается теперь узкими рамками чисто техническихприложений.Вопреки мнению самогоК.Шеннона, предостерегавшего ученых против поспешного распространенияпредложенного
им метода за пределы прикладных задач техники связи, этот метод стал находить все более широкоепримение в исследованиях и фи зических, и биологических, и социальных систем .Ключом к новомупониманию сущности феномена информации и механизма информационных процессовпослужила установленная Л.Бриллюэном взаимосвязь информации и физическойэнтропии. Эта взаимосвязь былапервоначально заложена в самый фунда мент теории информации, поскольку дляисчисления
количества информации Шеннон предложил использовать заимствованнуюиз статистической термодинамики вероятную функцию энтропии.Многие ученые начиная ссамого К.Шеннона склонны были рассматривать такое заимствование как чистоформальный прием. Л.Бриллюэн показал, что между вычисленным согласно Шеннонуколичеством информации и физической энтропии существует не формальная, асодержательная связь.В статистической физике с помощью вероятностной функции энтропии исследуются процессы, приводящие ктермодинамическому равновесию, при котором все состояния молекул их энергии,скорости приближаются к равновероятным, а энтропия при этом стремится к макси мальнойвеличине. Благодаря теорииинформации стало очевидно, что с помощью той же самой функции можно исследоватьи такие далекие от сос тояния максимальной энтропии системы, как, например,пись менный текст.Ещеодин важный вывод заключается в том, чтос помощью вероятностной функцииэнтропии можно анализировать все стадии перехода системы от состояния полногохаоса, которому соответствуют равные
значения вероятностей и максимальноезначение энтропии, к состоянию предельной упорядоченности жесткойдетерминации , которому соответствует единственно возможное состояние ееэлементов. Данныйвывод оказывается в равной мере справедливым для таких несходных по своейприроде систем, как газы, кристаллы, письменные тексты, биологические организмыили сообщества и др.При этом, если для газаили кристалла при вычислении энтропии сравнивается только микросостояние т.е.
состояние атомов и мо лекул и макросостояние этих систем т.е. газа иликристалла как целого , то для систем инойприроды биологических, интеллекту альных, социальных вычисление энтропииможет производится на том или ином произвольно выбранном уровне. При этом вычис ляемоезначение энтропии рассматриваемой системы и количество информации,характеризующей степень упорядоченности данной системы и равное разности междумаксимальным и реальным зна чением энтропии, будет зависеть от распределениявероятности состояний
элементов нижележащего уровня, т.е. тех элементов, ко торыев своей совокупности образуют эти системы.Другими словами,количество сохраняемой в структуресистемы ин формации пропорционально степени отклонения системы от состоянияравновесия, обусловленного сохраняемым в структуре системы порядком. Сам тогоне подозревая, Шеннон вооружил науку универсальноймерой,пригодной в принципе при условиивыявления значенй всех вероятностей для оценки степени упорядоченности всехсуществующих в мире систем.Опредеделив введенную Шенономинформационную меру как меру упорядоченности движения, можно установить взаимосвязь информации иэнергии, считая энергию мерой интенсивности движения. При этом ко личество сохраняемой в структуресистем информации пропорционально суммарной энергии внутренних связей этихсистем.Одновременнос выявлением общих свойств информации как феномена обнаруживаются и принципиальныеразличия отно сящихся к различным уровням сложности информационных систем.
Так, например, всефизические объекты, в отличие от биологических, не обладают специальнымиорганами памяти, пере кодировки поступающих из внешнего мира сигналов, информаци оннымиканалами связи. Хранимая в них информация как бы размазана по всей ихструктуре. Вместе с тем, если бы кристаллы не способны были сохранятьинформацию в определяющих их упо рядоченность внутренних связях, не было бывозможности создавать искусственную память и предназначенные для обработкиинформации
технические устройства на основе кристаллических структур.Вместе с тем необходимо учитывать, что созданиеподобных устройств стало возможным лишь благодаря разуму человека, су мевшегоиспользовать элементарные информационные свойства кристаллов для построениясложных информационных систем.Простейшая биологическаясистема превосходит по своей сложности самую совершенную из созданных человекомин формационных систем. Уже на уровне простейших одноклеточных организмовзадействован
необходимый для их размножения сложнейший информационныйгенетический механизм. В многокле точных организмах помимо информационнойсистемы наследствен ности действуют специализированные органы хранения ин формациии ее обработки например, системы, осуществляющие перекодирование поступающихиз внешнего мира зрительных и слу ховых сигналов перед отправкой их в головноймозг, системы обработки этих сигналов в головном мозге . Сложнейшая сетьинформационных коммуникаций нервная система пронизывает и превращает в целоевесь многоклеточный организм.Уже на уровнебиологических систем возникают проблемы учета ценности и смысла используемойэтими системами информации. Еще в большей мере такой учет необходим дляананлиза функци онирования интеллектуальных информационных систем.Глубокое осознаниеспецифики биологических и интеллекту альных систем позволяет выявить теграницы, за пределами ко торых утрачивает свою компетентность разработанныйсовременной наукой информационно-
энтропийный подход.Определить эти границыШеннону пришлось на самом началь ном этапе создания теории информации,поскольку без этого нель зя было использовать количественную меру информациидля оценки письменных текстов и других созданных разумом человека информационныхсистем. Именно с этой целью Шеннон делает ого ворку о том, что предложенный имметод исчисления информации письменных текстов игнорирует такие же ихнеотъемлемые свой ства, как смысл и ценность содержащихся в них сообщений.
Так, например, при подсчетеколичества информации, содержащейся в таких двух сообщениях, как очереднуюпартию Каспаров играет белыми и у гражданина Белова родился сын получитсяодна и та же величина 1 бит. Нетсомнения, что два этих сообщения несут разный смысл и имеют далеко неравнозначную ценность для гражданина Белова. Однако, как было отмеченовыше, оценка смысла и ценности информации находится за пределами компетенции теории информации ипо этому не влияет на подсчитываемое с помощью формулы
Шеннона количество бит.Игнорирование смысла иценности информации не помешало Шеннону решать прикладные задачи, для которыхпредназначалась первоначально его теория инженеру по технике связи вовсе необязательно вникать в суть сообщений, передаваемых по линии связи. Его задача заключаетсяв том, чтобы любое подобное сообщение передавать как можно скорее, снаименьшими затра тами средств энергии, диапазона используемых частот и, повозможности, безо всяких потерь. И пусть тот, кому предназначена даннаяинформация получатель сообщений , вникает в смысл, определяет ценность,решает, как использовать ту информацию, которую он получил.Такой сугубопрагматичный подход позволил Шеннону ввести единую, не зависящую от смысла иценности, меру количества информации, которая оказалась пригодной для анализавсех облада ющих той или иной степенью упорядоченности систем.После основополагающихработ
Шеннона начали разрабатываться основы смысловой семантической иценностной прагматической, аксиологической информационных теорий .Однако ни одной из этихтеорий и предлагаемых их авторами единиц измерения ценности или смысла несуждено было приобрести такую же степень универсальности, какой обладает мера,которую ввел в науку Шеннон.Дело в том, что количественные оценки смысла иценности информации могут производится только после предварительного соглашенияо том, что же именно в каждом конкретном случае имеет для рассматриваемыхявлений
ценность и смысл. Нельзя одними и теми же единицами измерить ценность информации,содержащейся, скажем, в законе Ома и в признании любви. Иными словами, критериисмысла и ценности всегда субъективны, а потому применимость их ограни чена, вто время как мера, предложенная Шенноном, полностью исключает субъективизм приоценке степени упорядоченности структуры исследуемых систем.Так что жехарактеризует подсчитанная по формуле Шеннона величина энтропии текста,выражаемая количеством
бит? Только лишь одно свойство этого текста – степень его упорядо ченности или , иными словами, степень его отклонения отсостояния полного хаоса, при котором все буквы имели бы равную вероят ность, атекст превратился бы в бессмысленный набор букв.Упорядоченность текста или любой другой исследуемой сис темы будеттем больше, чем больше различиевероятностей и чем больше вероятность последующего события будет зависетьотвероятностей предыдущих событий 1 . При этом,согласно негэнтропийному принципуинформации ко личество информации, выражающее этот порядок, будет равноуменьшению энтропии системы по сравнению с мак симально возможной величиной энтропии,соответствующей отсутствию упорядоченности и наиболее хаотичному состояниюсистем. Методыисчисления информации, предложенные Шенноном, позволяют выявить соотношениеколичества предсказуемой то есть формируемой по определенным правилам информации и количес тва той неожиданной информации, которую нельзя заранеепред сказать.
Содержащуюся в правилахинформацию Шеннон определил как избыточную, потому что знание правил построения сообщенийпозволяет предсказывать появление букв или других символов раньше, чем онибудут сообщены по линии связи.Такимспособом удается в той или иной степени разгрузить предназначенный дляпередачи сообщений канал. Проведенный Шенноном анализ английских текстовпоказал, что содержащаяся в них избыточная информация составляет около 80 от общего ко личества информации, котороезаключает в себе письменный текст.
Остальные 20 – это та самая энтропия, благодаря которой текст может служитьисточником непредсказуемой энергии 2 .Если бы текстовые, устные или зрительные в частностителевизионные сообщения были полностью лишены энтропии, они не приносили быполучателям сообщений никаких новостей.Если быписьменный текст строился только на основании за ранее сформулированных правил , то, установив эти правила по тексту первойстраницы, можно было бы заранее предсказать, что будет написано на страницах 50, 265, 521
и т.д. ПРЕДЕЛЫ ЭВОЛЮЦИОННОЙ ИЗМЕНЧИВОСТИИНФОРМАЦИОННЫХ СИСТЕМНаиболее нагляднойиллюстрацией информационно-энтро пийных закономерностей и ограниченийэволюционных процессов может служить письменный текст. А поскольку текст естьне что иное, как закодированное отражение устной речи, имеет смысл в дальнейшемвести речь об эволюции языка.Примерами эволюционныхизменений языка могут служить, в частности, образование неологизмов,заимствование иностранных слов и др.Приобщение бывшихсоциалистических стран к междуна родному рынку сопровождалось ассимиляциейтаких терминов, как менеджмент , маркетинг , дилер и т.п. С переходом кпарла ментским формам управления государством в бывших социалис тическихстранах приобрели популярность такие понятия, как кон сенсус и плюрализм .Процесс вовлечения влексикон новых слов имеет ряд сущес твенных ограничений.
Необходимым условием ассимиляцииино странных слов оказывается адаптация этих слов к новой языковой среде. Привключении иностранного слова в лексикон нового языка, слово это должноподчиняться действующим в этом языке пра вилам согласования слов т.е. правиламсклонения, сопряжения и др Подобная адаптация аналогична процессам обученияживых организмов правилам поведения в необычной для них среде.В свою очередь правиласогласования слов подчиняются требованиям, возникающим на еще более
высокихуровнях языко вой структуры.Эти требования зависятпрежде всего от смыслового содержания текста, от стиля, присущего составителю,данного текста и, наконец, от всего набора грамматических и фонетических правилданного языка.Например,слово спутник было введенов русский язык Достоевским. Из бытовой сферы спутник жизни это словораспространилось в область астрономии Луна спутник Земли и сталомеждународным словом после того, как в
Советском Союзе был запущен первыйискусственный спутник Земли. Однако, при всех трансформациях смысла форма этогослова определялась правилами грамматики, ус тановленными вместе свозникновением языка. Об этом свиде тельствует совпадение структуры слова с-пут-ник с такими аналогами, как со-рат-ник и со-племен-ник,образо ванными от корней древних слов племяи рать. Сбиологическим и видами тоже могут происходить аналогичныеметаморфозы.В результате мутаций может родиться заяц, у ко торого уши будут короче, чем усобратьев, или его шерстяной поркров приобретет необычный цвет. Эти признаки онпередаст по наследству, быть может, они закрепятся в потомстве, но при этомпотомки нашего зайца тоже останутся зайцами, но ни в коем случае не превратятсяв волка или лисицу и, уж тем более, не примкнут к отряду приматов. Подобнотому, как структура нового слова спут ник совпадает со структурой древнихслов соратник и сопле
менник , внутренняя и внешняя структура организмасовременного зайца повторяет структуру зайца, появившегося в результате актатворения на нашей Земле.Мутациям могутподвергаться только второстепенные признаки, а основные признаки вида остаютсянеизменными, подобно тому, как в приведенных выше примерах словообразованийнеизменными остаются определяющие смысловое значение каждого слова корни путь, племя и рать. При этом могут меняться второстепенные признаки слова префиксы, суффиксы, окончания ,превращая путь
в спутник, попутчик, путевой, путевка,распутица, беспутный, путеводный и т.п.Изначальный смысл слова путь при этом всюду останетсянеизменным, а основанные на коренном слове словообразования могут приобретатьте или иные оттенки в процессе последующей эволюции языка.Каждое новое словоподчиняется правилам, сохраняемым на высоких иерархических уровняхинформационно-энтропической спирали и действующим сверху вниз и на уровне слов,и на уровне букв.
Подобным образом мог быть сформирован и живойорганизм. Правила, которым подчиняются все его со гласованно функционирующиеорганы, ткани и клетки, могли быть сформулированы только на самых высоких, недоступных нашему разуму уровнях информационно-энтропической спирали.Приведеннаяв таблице 1 фраза , полученная врезультате случайного комбинирования 8-и буквенных сочетаний, имеет формальныепризнаки осмысленных фраз. В ней можно раз личить глагольные формы враться ,наречия непо и корко , форму прилагательного весел и даже уловить некийопенок смысла ка кого-то бодрого действия, движения .В свое время академикЩерба тоже приводил пример формализированной фразы, из которой можно было бы понять, чтонекаяГлокая куздра штекобуданула читай оттолкнула некого бокра и кудрячит читай приласкивает бокренка. Означают ли две рассмотренные фразы , что придвижении снизу вверх по рассматриваемой нами спирали,
можно путем случайныхкомбинаций букв и слогов получить осмысленный текст? Такой вывод был быошибочным. Формальное сходство с грамма тическими конструкциями порождает всеголишь иллюзию смысла, потому что не смысл рождается из грамматики, а грамматикастроится таким образом, чтобы с ее помощью можно было передать т.е. закодировать содержащийся в той или иной фразе смысл.Таким образом, этипримеры еще раз убеждают нас в том, что план построения сложной информационнойсистемы
может формироваться только на верхних иерархических уров нях и оттудаспускаться на нижележащие уровни, задавая на них тот или иной порядокчередования элементов.Сказанноевыше имеет самое непосредственное отношение к проблеме возникновения ифункционирования биологических сис тем.Выше было отмечено, чтопроводимый на самом нижнем струк турном уровне текста на уровне отдельныхбукв статистический анализ распределения вероятностей букв и последующийрасчет ко личества информации и величины
энтропии способны регулировать лишьрезультирующую упорядоченность текста. Причины этой упо рядоченностиформируются на недоступных информационно-энтропийному анализу верхнихиерархических уровнях текста и языка.Пытаясь преодолетьуказанные ограничения возможностей ин формационно – энтропийного анализа, К.Шеннон исследовал вероятности появленияв тексте различных 4-х, 6-ти и 8-ми бук венных сочетаний. Подставляя найденныезначения вероятностей в вероятную функцию энтропии, К.Шеннон определил такимобразом величину энтропии с учетом взаимной зависимости корреляции букв впределах слогов, а затем экстраполировал полученный результат на болеедлительные текстовые отрезки, показав, что кор реляция не выходит за пределыотрезков текста в 40-60 букв .Аналогичные результатыисследований русских текстов предс тавлены в работе Добрушина табл. 1 .Используемый теориейинформации полуэмпирический метод учета межбуквенных корреляций
обладает рядомсущественных ог раничений, которые становятся очевидными, если сопоставитьрезультаты анализа искусственных текстов Шеннона со свойствамиреальногоязыка. Дело в том, что при искусственном расчленении текста на отрезки из 4-8 букв стираются границы, разделяющие уровнислогов от уровней слов. В реальных текстах в зависимости от смысловогоконтекста и одна, и две, и три буквы могут быть в одних случаях самостоятельнымсловом, а в других входить в составдругих слов.
Очевидно, что в двухуказанных случаях рассматриваемые соче тания букв относятся к различнымиерархическим уровням текста или к уровню слогов , однако подобноеразграничение уровней может осуществляться только по смыслу, который заключаетв себе анализируемый текст. А поскольку используемые теорией ин формации методыигнорируют смысловое содержание текста, ис следуемые ею искусственные текстыотличаются от реальных текс тов отсутствием четкой иерархической структуры.
Причины возникновенияисследуемого порядка всегда остаются за пределами компетенции статистическихметодов. Находясь как бы на нижних ступенях некой упорядоченной иерархическойструктуры, вооруженная статистическими методами наука исследует не самодействие порождающих исследуемый порядок причин, а лишь его результат. Любаяпопытка с помощью информационно-энтропийного анализа делать какие бы то ни быловыводы о содержательной стороне письменных текстов была бы равносильна суждениюо достоинствах и недостатках какого-то музыкального произведения на основаниитого, как часто создававший его композитор прибегал к помощи ноты до или соль . Подобным способом можно идентифицировать принадлежность тому или иномуавтору его сочинений, но бесполезно пытаться по результа там такого анализадоискиваться до причин, побудивших этого автора сочинить именно эту симфонию,поэму или роман.Из всеговышесказанного следует, что адекватное представление об иерархической структуререальных текстов не может быть получено на основании констру ированияискусственных текстов,
осуществляемого теорией информации по принципу снизувверх .Присущий реальнымтекстам порядок чередования букв формируется согласно правилам, заданнымверхними иерархическими уровнями текста, то есть не снизу вверх , а сверхувниз . Что же касается исполь зуемой теорией информации вероятностной функцииэнтропии, то она может быть использована в качестве точного математическогоинструмента только на нижних уровнях иерархии текста, поскольку только
на этихуровнях удается найти достоверные значения вероятностей появления исходныхэлементов этого уровня т.е. букв . С переходом на следующий уровень мыобнаруживаем такое обилие исходных элементов этого уровня т.е. такое количество слов , что определениевероятности появления в тексте всех слов, составляющих лексикон, становитсяпрактически неразрешимой задачей.Так, например, лексиконискусственного текста, каждое слово которого состоит из 6-ти букв, а алфавит – из 30-тибукв, составит 306 729 106 слов .
Среди этих слов будут попадаться бессмыс ленные и даже непроизносимыесочетания из 6-ти гласных или 6-ти согласных букв.Приняв, что значащиеслова составят 0,01 от всех шестибук венныхкомбинаций, получим 72 900 слов. Изсочетаний этих слов можно составить практически неограниченное количествотекстов, поэтому бессмысленно пытаться определять вероятности появленияотдельных слов.Это значит, чтовероятностная функция энтропии не может быть использована для строгогоопределения количества информации и энтропии текстов на уровне слов, и поэтомуШеннон был вынужден использовать приближенные методы экстраполяции результатов,полученных на уровне слогов и отдельных букв.Четкое пониманиеприсущих информационно-энтропийному анализу ограничений не исключаетвозможности использования полученной нами на примере искусственных текстоврасширяющейся информационно-энтропийной спирали рис. 3 в качестве универсальной модели всех существующих в миреиерархических систем.
Благодаря теории информации, понятие текст приобретаетобщенаучный смысл.Так,например, начальным алфавитом всех генетических кодов служат 4 нуклеотида ДНК. Генетический лексикон состоит из триплетов,соответствующих 20-ти аминокислотам. Содержащиеся в генах фразы это закодированные программы формировния органови их функций, концепция это целостныйорганизм. Начальнымалфавитом всей природы служат входящие вменделеевскую таблицу атомы
химических элементов. Лексикон это молекулы сложных веществ. Фразы, концеп ции это геохимические и биологические системы, составляющие все многообразие ибогатство природы. Так же,как в случае текста, за пределами когнитивных возможностей иерархическойинформационно-энтропийной модели остаютсявопросы о том, на каких высших уровнях и каким образом формируются правила,определяющие фиксируемую наукой на более низких уровнях упорядоченностьструктуры существующих в природе
систем.Как будет показано ниже,этот вопрос приобретает особую акту альность, когда речь заходит опроисхождении, адаптации и эволюционной изменчивости биологических видов.Используя текст вкачестве универсальной модели, можно ус тановить те пределы изменчивости, вкоторых может осуществлять ся самоорганизация и адаптация биологических систем.С учетом выявленных ограничений можно выявить ошибочность основных положенийотстаиваемой материалистической наукой концепции происхождения и эволюциибиологических видов.ОГРАНИЧЕННОСТЬ АДАПТАЦИИ БИОЛОГИЧЕСКИХ ВИДОВРассмотренныемеханизмы ограничения эволюционной из менчивости языковых форм могут использоватьсяв качестве на глядной аналогии при постижении скрытых от постороннего взглядамеханизмов изменчивости биологических видов. Одним из клас сических примеровтакой изменчивости может служить адаптация одного из видов бабочек пяденицыберезовой
к нарушенным индустриальными факторами условиям среды их обитания врайоне Манчестера и других промышленных центров Англии прошлого века. Врезультате загрязнения лесов копотью начал исчезать светлый лишайник, ранеепокрывавший стволы деревьев. В результате адаптации к новым условиям наряду сбабочками, обладавшими маскирующей на фоне лишайников светлой окраской крыльев,появились популяции с темной окраской крыльев, приспособленной для маскировкина
лишенных лишайников темных стволах. По произведенным оценкам относительноеколичество бабочек с темными крыльями в популяции выросло с 1 в 1848году до 99 в 1898 году. Можно ли данный факт рассматривать как подтверждениеэволюционной теории? Да, если считать эволюцией любое изменениепризнаков под влиянием внешней среды. Нет, если, следуя логике сторонниковэволюционной теории, под эволюцией понимать тенденцию самопроизвольногоформирования
более сложных биологических форм.Пяденица березовая неперестала быть бабочкой после того, как изменился цвет ее крыльев. Точно также, как заяц никогда не прев ратится в лису или волка, амеба не породитмногоклеточных ор ганизмов, а обезьяны не смогут стать предками разумных людей.Эволюционныеизменения признаков биологических форм осуществляются только в пределах, ненарушающих основных признаков данного вида, то есть в пределах горизонтальнойплоскости иерархической инфор мационной модели, соответствующей неизменномууровню иерархической структуры. Вместе стем, пример пяденицы березовой вовсе не подтверждает возможности эволюции повертикали, то есть в направлении перехода на более высокие уровни иерархическойструктуры и соответствующего самопроизвольного усложнения биологических форм.Напротив, имеющиеся в распоряжении биологов факты свидетельствуют о том, что вакте творения были изначально предусмотрены правила, ограничивающие возможностиизменений видовых
и родовых признаков и таким образом обеспечивающиеустойчивость к воздействиям внешней среды.К числу правил относятсязащищенность от внешних воздейст вий наследственных генетических кодов изапреты на межвидовые и межродовые скрещивания, которые могли бы приводить кобразо ванию гибридных пород.Даже в тех случаях,когда межвидовые скрещивания оказываются возможными, возникают особи, почти неспособные производить потомство. Так, например, в результате скрещивания ослицыи жеребца в редких случаях удается
получить гибридную особь лошака . Болеепродуктивным оказывается скрещивание кобылы с ослом, однако при этом почтибесплодными оказываются их потомки мулы .Рассмотренные примерысвидетельствуют о том, что в проти вовес утверждениям эволюционистов уже самаидея творения заключала в себе условия последующего сохранения основныхпризнаков биологических форм. По аналогии с информационными свойствамиписьменных текстов можно пред полагать, что эти основные и
неизменные признакивида составляют порядка 80 информации,заключенной в наследственных генетических кодах. Остальные 20 – это те второстепенные признаки, котрыевидоизменяются под воздействием внешней среды.Всякая аналогия, в томчисле и аналогия свойств генетических и письменных текстов, являетсяприближенной, поэтому приведенные цифры 80 и 20 могут характеризовать лишьпримерное соотношение сохраняемых и изменяющихся признаков тех или иныхбиологических форм. Тем не менее даже чисто интуитивные оценки дают основанияпредполагать, что соотношение 80 20должно соблюдаться в действительности чтобы курица не превращалась в утку, она должна сохранить около 80 признаков своего вида, а 20 включают в себя изменение цвета перьев,размеров гребешка или клюва и т.п.Имеющиеся научные данныеподтверждают возможность адап тационных изменений второстепенных признаков приусловии сохранения тех основных признаков, по которым осуществляется различениебиологических форм. Источник указанных ограничений находится на недоступныхрациональной науке самых высоких уровнях
иерархической информационнойструктуры. Если за нижний уровень иерархии информационно-энтропическоймодели принять неорганические системы,то следующую ступень иерархической лестницы следует соотнести с биологическимисистемами. Над ними находитсяследующий уровень более сложно организованных интеллекту альных систем. А самымвысоким оказывается тот недоступный рациональному постижению уровень логос ,на котором и форми руются правила, которым подчиняются все нижележащие уровни,то есть весь доступный нашим наблюдениям
мир.В сопоставлении с такимпредставлением об информационной структуре мира становится особенно очевиднойнаивность попыток Дарвина и его последователей объяснить эволюционноепроисхождение биологических видов в результате отбора тех особей, преимуществакоторых возникли в результате чисто случайных причин.Критики теории Дарвинаутверждали, что случайная изменчивость способна только нарушить изначальнуюцелостность организма как слаженно функционирующей системы. В результатеснижается их адаптация по отношению к условиям
существования, а следова тельно,уменьшаются шансы на закрепление эти случай но возникших признаков впоследующих поколениях.В ответ на подобнуюкритику и сам Дарвин, и его последователи обычно ссылались на длительностьсроков биологической эволюции, которая, по их утверждениям, исчисляетсямиллиардами лет. Неубедительность подобной аргументации можно проиллюстри роватьследующим наглядным примером.Представим себе, чтонекий доморощенный изобретатель , неимеющий никаких представлений ни о принципах телевиде ния, ни о схеме имеющейсяв его распоряжении конкретной модели, решил, что он сможет получитьдополнительные те леканалы путем случайной перепайки концов внутренних про водов.Чем больше времени будетдлиться подобная процедура, тем труднее будетвозвратить в рабочее состояние телевизор, над которым произведен подобныйэксперимент.А ведь не толькотелевизор, но даже и самый совершенный из современных компьютеров в отношениисложности
не может идти ни в какое сравнение с представителями даже самыхпростейших биологических форм. Ведь не случайно даже самый сложный компьютерпосле отказа поддается восстановлению, а любой живой организм после нарушенияего жизненных функций еще никто из людей не сумел оживить .Длительный срок эволюции не может служитьаргументом, под тверждающим возможность случайного возникновения ни новыхполезных признаков, ни, тем более, новых сложных и совершенных биологическихформ.
Биосистемы на столькосложны по своей структуре и функциям, что есть все осно вания предполагать, чтовсе иерархические уровни их структуры могут вносить свою лепту в процессыупорядоченного функциони рования и адаптационных изменений этих систем.Об этом свидетельствуют,в частности, результаты новейших исследований в области неравновеснойтермодинамики, исследующей механизмы процессов самоорганизации неорга ническихсистем.Оказалось, что всистеме, еще находящейся в состоянии равновесия,которому соответствует предельный хаос
движения молекул и атомов, уже заложеныпотенциально так называемые атракторы различные варианты структур. Реализация этих структур произойдет только в томслучае, если какие-то внешние факторы заставят систему отклониться отравновесного состояния, а затем случайные флуктуации направят процесс по одномуиз заранее обусловленных путей .И тут опять возникаетвопрос, на который рациональная наука не в состоянии дать ответ кем же выбраны именно эти структуры? Ктозапретил в точках так называемых бифуркаций одни варианты формирующейсяструктуры, но разрешил другие? Кто заложил структурные признаки симметрии иасимметрии, одни и те же, или весьма сходные и для неорганических, и для живыхсистем ?Еще раз подчеркнем, что,проводя исследования на различных иерархических уровняхинформационно-энтропийной спирали т.е. на уровне неорганических,биологических, интеллектуальных сис тем , наука способна фиксировать лишь самипроцессы функциони рования различных информационных структур, оставляя заскобками вопросы о
том, почему они функционируют именно так, а не иначе, где икак формируются правила, согласно которым в результате координированноговзаимодействия всех структурных уровней иерархической спирали функционируетсложнейшая сис тема -живой организм.Сам собой напрашиваетсявывод, что эти правила могут формироваться только на уровне Логоса, откуда онитранслируются на все нижележащие уровни и обеспечивают их согласованноефункционирование и ту гармонию, которой обладает всякий живой организм.
В поисках истоков этойгармонии некоторые ученые-эволюцио нисты готовы признать правомерностьтелеологических эволюционных концепций .Но если у эволюции биологических форм есть какие-то конечные цели, то они былизаданы изначально не кем иным, как Творцом не только всех биологических форм,но и всей биосферы как цельного, гармонично функционирующего компонента земногомира.Не находит в наукеответа также вопрос о том, что может служить стимулом самопроизвольногоусложнения
организмов, то есть движения по ступеням иерархической лестницы отоднокле точных к многоклеточным, от прокариот к эукариотам, от беспозвоночных кпозвоночным и т.д. Борьба за существование не может служить объяснениемподобных тенденций, поскольку в отношении выживаемости постейшие организмы неуступают сложнейшим. Здесь приходится согласиться с известным англий скимпублицистом Сэмом Батлером, сказавшим однажды, что ни одна теория эволюции неотвечает на вопрос, почему развитие биосистем должно идти в направлении не отслона к амебе, а от амебы к слону.ЭТАПЫ РАЗВИТИЯ ТЕОРИИ ЭНТРОПИИ1а. Функция энтропии былавведена в термодинамику Р.Клаузиусом, предложившим исчислять превращениеэнтропии по формуле D S DQ 1.1 T где S – энтропия Q – количество тепла Т – абсолютная температура .При передаче тепла D Q отболее разогретого тела с температу рой
Т1 к менее разогретомутелу с температурой Т2 превращениеэнтропии DS равно D S – DQ DQ 1.2 T1 T2 Из формулы 1.2 с учетом условия T1 gt T2 следует вывод D S gt 0 1.3 Поскольку во всехфизических процессах тепло перетекает самопроизвольно от более разогретых кменее разогретым телам, условие 1.3 приобретает силу физического закона, получившего название Второго началатермодинамики.Пока существует разностьтемператур
T1 T2,часть теплового потока может быть преобразована в полезную антиэнтропийную энергию либо в естественно протекающих процессах например, биологических ,либо с помощью тепловых машин.При условии T1 T2 энергия полностью утрачивает своиантиэнтропийные свойства. Этот вывод был положен в основу теории тепловойсмерти Вселенной.Заметим, что сам термин энтропия был введен
Клаузиусом, образовавшим его от корня греческого слова тропе , означающего превращение с добавлением заимствованной из слова энергия приставки эн- .1б. Предложенная Клаузиусомформула энтропии 1.1 нераскрывала внутренних механизмов процессов, приводящих к воз растаниюэнтропии.Эта задача была решена Л.Больцманом, предложившим исчислять энтропиюидеального газа по формуле S K H 1.4 где K 1,38 10 -16 эрг градус коэффициент
Больцмана Н -математическая энтропия. Согласно Больцману, величина H определяетсятак H ln N ! 1.5 N1 ! N2 ! Nk ! где N -общее число молекул газа, находящегося в рассматриваемом объеме.Ni – число молекул,движущихся со скоростями, соответствующими i-ой ячейке условного пространства скоростей.При этом 1 1,2, К 1.6 Условие 1.6 означает, что все Nмолекул распределены по соответствующим ячейкам пространства скоростей, вколичествах N1, N2, Nk учитываемых уравнением 1.5 Согласно 1.5 перестановка молекул, находящихсявнутри каждой из ячеек, не влияет на величину Н . Отсюда следует, что подсчитанная по формуле 1.5 величина Р соответствуетчислу возможных микросостояний системы в частности газа , при ко тороммакросостояние системы остается неизменным.1в. М.Планк преобразовалформулу Больцмана 1.5 , исполь зовавдля этого математическую формулу
Стирлинга, справедливую для больших значений N ln N ! Nln N N 1.7 В результате подстановки 1.7 в 1.5 получается соотношение H Nln N N S Ni ln Ni S Ni i i С учетом условия SNi N, выражение для Н приводится к виду H Nln N S Ni ln Ni 1.8 i Далее Планк ввел в рассмотрениевероятности различных сос тояний молекул, определив их как pi
Ni 1.9 N При этомвторое слагаемое в правой части 1.8 можно пред ставить как S Ni ln Ni S pi N ln pi ln N N S pi ln pi N ln N Si pi 1.10 i i i i Сучетом известного из теории вероятностей условия норми ровки S pi 1,подстановка 1.10 в 1.8 приводит выражение для Н кокончательному виду H S pi ln pi 1.11 i ПроделанныеПланком с помощью формулы
Стирлинга чисто формальные преобразования не толькопозволили получить новое выражение для исчисления энтропии, но помогли болееглубоко осознать смысл вычисляемой величины Н. Выражение 1.11 позволяетсделать два важных вывода 1. Введение в формулу энтропии значенийвероятностей расширило рамки применимости этой формулы далеко за пределыисследуемых термодинамикой молекулярных систем.
Символ pi может обозначать вероятность не толь ко тех или иныхсостояний молекул, но и различных сост ояний элементов любых систем вчастности, вероятностей появления букв текста или других символов пер едаваемыхсообщений .2. Выражение 1.11 соответствует полной энтропии системы. Поделив подсчитаннуюпо формуле 1.11 величину на Ni , можно определить усредненную величинуэнтропии Н , относящуюся к одному элементу рассматриваемой системы, т.е. 1.8 H S pi ln pi i Именно втаком виде использовал функцию энтропии Шеннон для определения среднегозначения энтропии одной буквы текста опуская при этом знак усреднения .1г. Согласно Шеннону,средняя энтропия одной буквы текста вычисляется по формуле 1.2 путем суммирования слагаемых pi log pi , вкоторых символом pi , обозначены вероятностисоот ветствующих букв. Таким образом i я 1.13 H S pi ln pi – pа log pа pб log pб pя log pя i а
Для удобства исчисленияэнтропии сообщений, передаваемых двоичным кодом, Шеннон заменил используемыйтермодинамикой натуральный логарифм ln двоичным логарифмомlog2.МЕТОДЫ ИСЧИСЛЕНИЯ КОЛИЧЕСТВА СТРУКТУРНОЙ ИНФОРМАЦИИ ИИНФОРМАЦИОННОЙ ЭНТРОПИИ ТЕКСТОВДо опубликованиясозданной К.Шенноном теории Р.Хартли предложил определять количество информациипо формуле
I log2 N 2.1 где I – количество информации N – число возможных ожидаемых сообщений.Для учета различнойстепени неожиданности вероятности сообщений К.Шеннон предложил использоватьзаимствованную из статистической физики вероятностную функцию энтропии, приве деннуюк виду 1.13 В случае равнойвероятности появления любой из N букв алфавитавыполняется условие Pа Pб Pв Pя 1 N 2.2
В результате подстановки 2.2 в 2.1 и с учетом того, что -log1 N log Nполучаем H 1 log 1 log N 2.3 N N Сопоставляя 2.1 и 2.3 ,приходим к выводу, что количество информации, вычисляемое по формуле Хартли,соответствует ус транению неопределенности Н при получении сообщения ободной из букв алфавита, при условии равной вероятности появления любой из букв условие 2.2 .При равных вероятностяхпоявления всех букв алфавита текст становится наиболее хаотичным.
Подсчитаннаяпо формуле 2.3 величинаинформационной энтропии достигает максимальной ве личины Hmax log N 2.4 За единицу количества информации принята величинаин формации, содержащейся в сообщении об одном из двух равновероятных событий.Дополучения сообщения выполняются условия P1 P2 1 1 2.5 N 2 При подстановке 2.5 в 1.13 получаем H frac12 log2 frac12 frac12 log2 frac12 log2 2 1 bit Наименование бит bit происходит отсокращения английских слов двоичная единица binary unit .В реальных текстахпоявлению разных букв соответствуют разные вероятности. Так, например, длярусских текстов вероят ность появления буквы О в 30 раз превышает вероятность появ ления буквы Щ или Э Ро 0,09 Рщ Рэ 0,003 .При подстановке вформулу 1.13 реальных значенийвероятностей букв русского текста
величина реальной информационной энтропии Нrуменьшается по сравнению с максимальной энтропией, определяемой выражением 2.4 .Разность между величиноймаксимальной энтропии Нmax и реальной энтропии Нrсоответствует количеству избыточной пред сказуемой информации In.Таким образом In Hmax Hr 2.6 Учетреальных значений вероятностей букв при передаче пись менных текстов позволяетуменьшить избыточность сообщений, передаваемых по каналам связи.
Так, например,для избавления от избыточности используется способ кодирования букв алфавита,при котором часто повторяющимся в тексте буквам т.е.буквам, имеющим наибольшую вероятность, такую, например, как Ра 0,062 Рв 0,038 Ре 0,072 Рл 0,035 Ро 0,09и др. соответ ствуют или меньшая трата энергии за счет уменьшения величины амплитуды сигналов или, увеличенная скорость передачи за счет сокращениячисла знаков двоичного кода, соответствующего обозначению указанных букв.Помимо учета реальныхвероятностей букв, для уменьшения
избыточности сообщений следует учитывать такжевероятности их сочетаний например,высокую вероятность появления буквы Я после переданного сочетания ТЬС , малую вероятность появления согласнойбуквы после передачи следующих друг за другом трех согласных букв и т.п. .Таблица 1 Способ формирования фраз пп Фразы , полученные на основе статистических свойств русского языка Статистические характеристики фраз Нr бит D Is бит При равной вероятности всех букв 1 СУХРРОБЬТ ЯИХВЩИЮАЙЖТЛ-ФВНЗАГФОЕВШТТЦРПХГРКУ -ЧЖОРЯПЧЬКЙХРЫС 5,0 0,0 При учете реальных вероятностей отдельных букв 3-х – буквенных сочетаний 2 ЕЫНТ ЦИЯЬА СЕРВ ОДНГ ЬУЕМЛОЙК ЭБЯ ЕНВТША ПОКАК ПОТ ДУРНОСКАКА НАКОНЕПНО SHE СТВО – 4,3 0,7 3 ЛОВИЛ СЕ ТВОЙ ОБНИЛ Ь 3,5 1.5 4-х – буквенных сочетаний 4
ВЕСЕЛ ВРАТЬСЯ НЕ СУХОМ И НЕПО И КОРКО 2,9 2,1 8-ми – буквенных сочетаний 1,8 3.2 Выборка из реального текста 5 ПРИСВОИВ ДВОИЧНЫЕ НОМЕРА БУКВАМ АЛФАВИТА, МОЖНО ПВРЕВРАТИТЬ ЛЮБОЙ ТЕКСТ В ЧЕРЕДОВАНИЕ ЕДИНИЦ И НУЛЕЙ 1,0 4,0 При РА 1 РБ-Рв Ря О АААА 0,0 5,0 В результате взаимной корреляции букв в употребляемых втекстах буквенных сочетаний происходит дополнительное
уменьшение определяемойвыражением 1.13 реальной энтропии Нr по сравнению с определяемойвыражением 2.4 максимальной энтропии Нmax. Подстановка значения Нr, вычисленного с учетом взаимнойкорреляции букв, в выражение 2.6 дает дополнительное увеличение численного значенияизбыточной информации In таблица 1 .Указанные свойства письменных текстов наглядно иллюстрируются таблицейискусственных текстов,
полученных путем случайных выборок из реальных текстовотдельных букв или их сочетаний. Вместе с тем, указанная таблица показывает,что вместе с увеличением избыточности увеличивается и упорядо ченность детерминация текста, достигая в пределе жесткой детерминации , при которойтекст вырождается в повторение одинаковых букв.Такая взаимосвязь между избыточностью и упорядо ченностьютекста обусловлена тем, что избыточность текста обусловлена действиемграмматических и фонетических правил.
Именно этими правилами обусловленаприсущая тексту струк турность, следовательно, вычисляемое согласно 2.6 количество избыточной информации In является одновременно и количеством информации,сохраняемой в упорядоченой структуре текста или любых других структурированныхсистем D IS Hmax Hr 2.7 Для уяснения смысларавенства In D IS,вытекающего из сопос тавления выражений 2.6 и 2.7 , рассмотрим следующий пример.Некто получил сообщение,что из яйца вылупился птенец. Для подтверждения того, что это именно птенец, ане малек, сообща ется, что у него неплавники, а крылья, не жабры, а легкие и т.п. Разумеется, все это не будетизбыточной информацией In для вся кого, кто знает,чем отличается птенец от малька.Но та же самаяинформация о крыльях, легких, клюве и т.п заложенная в генетический код,регулирует процесс
онтогенеза, в результате которого в яйце формируетсяорганизм птенца, а не малька. Таким образом, информация In,избыточная для осведом ленного получателя, оказывается необходимой структурнойин формацией D IS, когда речь идет об информационномуправлении процессами формирования тех или иных упорядоченных структур.Вследствие этого и выполняется условие In D IS Hmax Hr 2.8 ИНФОРМАЦИОННО-ЭНТРОПИЙНЫЕ СООТНОШЕНИЯ
ПРОЦЕССОВАДАПТАЦИИ И РАЗВИТИЯОдна изтеорем Шеннона свидетельствует об уменьшении ин формационной энтропии множестваАВ, образованного в резуль тате взаимодействий двух исходныхупорядоченных множеств Либ. H A,B 8804 H A H B 3.1 В этомсоотношении знак равенства относится к случаю отсут ствия взаимодействий междумножествами А и В .Вслучае взаимодействий происходит уменьшение энтропии на величину DH Н А Н В – Н А,В 3.2 Согласно негэнтропийномупринципу информации 3.4 получаем
D IS Н А Н В – Н А,В 3.3 Распространяярассмотренные Шенноном взаимодействия абстрактных математических множеств наслучаи взаимодействий реальных физических систем, можно сделать следующиевыводы 1. Соотношения 3.1 , 3.2 и 3.3 можно распространить на случаи взаимодействий упорядоченных физических систем,в частности на взаимодействия физических сред с различными видами полей.
При этом необходимоосуществлять переход от информационной энтропии Н к термодинамическайэнтропии S , используя соотношение 1.4 Приложений 1.2. Знак равенства в соотношении 3.1 соответствует случаю отсутствиявзаимодействия между рассматриваемыми физически ми системами например, случайвоздействия магнитного поля на не обладающую магнитными свойствами среду .3. Во всех остальных случаях в соответствиис соотношением 3.3 происходитнакопление структурной информации D IS, характеризующей увеличение упорядоченности структуры вновьобразующейся системы формирование и ориентация магнитных доменов подвоздействием магнитного поля, структуализация под воздействием электрическогополя поляризуемых сред и т.п. .С помощью вероятностнойфункции энтропии можно описать формальным математическим языком процессадапации системы к внешним воздействиям, понимая процесс адаптации как обучениеоптимальному поведению в заданных
условиях внешней среды.Рассмотрим систему,обладающую возможностью выбора одного из Nвозможных ответов реакций на внешние воздействия. До прохожденияобучения система способна отвечать на любые воздействия лишь выбранной наугадреакцией i,причем iможет принимать любые значения от i 1до i N, т.е. i 1,2,3 N , 3.4 При этом условии вероятности всех ответов равныдруг другу, т.е.
Р1 Р2 PН 1 N 3.5 Как былопоказано ранее, при этом условииреальная энтропия Нr равнамаксимальной энтропии Hmax, т.е. Hr – i N pi log pi log N Hmax 3.6 S i 1 Врезультате обучения возникают различия вероятностей разных реакций.В соответствии срассмотренными ранее свойствами функции S pi log pi i реальная энтропия Hrуменьша ется на величину
D IS Hmax Hr 3.7 С точки зрения теории вероятностей начальныйалфавит с заданным числом букв представляет собой полную группу событий.Для полной группысобытий при любом распределении вероятностей сумма их всегда равна 1 , согласно известному из теории вероятностиусловию нормировки i N pi 1 3.6 S i 1 Смыслусловия нормировки заключается в том, что сумма вероятностей выпадения всех6-ти граней игральной кости равна вероятности выпадения любой грани, т.е.
Р1 Р2 Р6 1 6 1 6 1 6 1 6 разВ рассматриваемом намипроцессе обучения, приводящем к дифференцировке значений вероятностей реакцийPi , состав ляющих полнуюгруппу N, условие 3.8 свидетельствует о том, чтоувеличение вероятностей каких -то реакций может происходить только за счетуменьшения всех остальных вероятностей чтобы сумма была по-прежнему равна 1,см.рис. 1, случайб .В предельном случае однаиз N вероятностей можетвозрасти до 1,тогда все остальные вероятности станут равны 0 рис. 1 .В случае текста предельномуслучаю дифференцировки соот ветствует вероятность одной буквы например, е ,равная 1. Вероятности всехостальных букв при этом равна нулю. Это значит, что текст вырождается вповторение одной буквые е е е е Этот случайсоответствует жесткой детерминации незатухающийстрого периодический процесс .Соответствующее жесткойдетерминации распределение вероятностей, при котором некая вероятность
Ркравна 1, а все остальные – равны 0,в общем виде запишется какРк 1 3.9 Р1 Р2 Рк-1 Рк 1 0 3.10 а Р1 Р2 Pn б в Равномерное распределение вероятностей Нr Hmax Дифференцировка вероятностей при соблюдении условия i N S pi 1 i 1 Hmax gt Hr gt 0 Предельный случай дифференцировки вероятностей Нr 0 Рис. 1 При подстановке этих значений в функцию энтропии
Hr i N pi log pi 3.11 S i 1 получаем Hr 0 3.12 Подставляя 3.9 в 3.4 , получаем D IS Hmax 3.13 Hr 0 D IS Hmax Hr Hmax D IS 0 Все стадииперехода от состояния максимальной энтропии, описываемого условиями 3.4 , 3.5 , 3.6 , к состояниюжесткой детерминации, которому соответствуют условия 3.9 3.13 можно представить в виде дуги, соединяющейисходное состояние Н с конечным состоянием К рис. 2 . Рис. 2 На рис.3 изображена расширяющаяяся иерархическаяспи раль,
которая может служить моделью формирования иерархическихупорядоченных структур.Пусть нижний уровеньэтой спирали п 0 соответствует на чальному алфавиту,состоящему из N0 различных элементов букв, атомов, нуклеотидов и др n 3 n 2 n 1 n 0 рис. 3Тогда на уровне N 1 из этого алфавита можно составитьN1 слов .Если каждое слово состоит из K1 букв, то из N0букв можно составить число слов, равное
N1 N0K1 3.14 Соответственно,на уровне п 2 из N1 слов можно соста вить количество фраз , равное N2 N1K2 N0K1K2 3.15 где Кг -число входящих в каждую фразу слов Дляупрощения математических выражений мы уже приняли одно допущение, сказав, чтовсе слова содержат одинаковое ко личество букв К1 , а все фразы содержат одинаковоеколичество слов К2 . Очевидно, что в реальных системах например, в письменных текстах этиусловия не соблюдаются. Однако для выполнения общих свойств нашей информационно-энтропийной модели подобные упрощения вполне допустимы, поэтому мы введем ещеодно допущение K1 К2 К 3.16 Подставив 3.16 в 3.15 , мыполучим N2 N0K2 3.17 Проводяаналогичные операции для любой п-ой ступени при условии K1 K2 Кп К,получим Nn N0K2 3.18 Рассмотримпример, иллюстрирующий увеличение разнообразия числаразличимых
элементов с переходом наболее высокие уровни изображенной на рис . 3.3спирали в соответствии с форму лами 3.14 3.18 .Если алфавит уровеньп 0 содержит 30 букв N0 30 , а каждое слово искусственного текстасостоит из 6 букв К 6 , то общее число таких слов составит N1 N0K1 306 729 106Среди указанногоколичества слов большинство составят бессмысленные или даже непроизносимые слова из6-ти глас ных,
6-ти согласных и т.п. .Но если хотя бы 0,01 от общего числа буквенных комбинацийсоставят осмысленные слова, общий лексикон составит 72 900 слов.Еще более прогрессивновозрастает число комбинаций с переходами на более высокие уровни n 2, п 3 и т.д.Дляопределения возрастания информационной емкости по мере перехода на болеевысокие уровни изображенной на информаци онно-энтропийной спирали напомним , что максимальное количес тво структурнойинформации A s накапливается при переходе от
Нr 8242 Нmax к Нr 8242 8242 0, т.е.равно D IS Нr 8242 Нr 8242 8242 HmaxВеличина максимальной энтропиидля п – ой ступени определя етсякак Нпmax log Nn Кn log N0 3.19 Сопоставляя величину Нпгнх свеличиной энтропии ступени n О H0max log N0 3.20 убеждаемся, что в результате перехода с уровня n 0 на уро вень n , максимальная энтропиявозросла в Кn раз Нпmax Кn Н0max 3.21 При переходе отисходного состояния
Н в конечное состояние К энтропия уменьшаетсяот Нr Нmaxдо Нr 0, а величина на капливаемойсистемой информации соответственно возрастает от I 0 до D IS Нmax см. рис 1 .При переходе с уровня n Она уровень n в соответствии с увеличением энтропии в Кnраз увеличивается значение DISmaxто естьвозрастает потенциальная емкость D ISmax 0 Kn D ISmax 0 3.22 В качестве примераподсчитаем с помощью формулы 3.22 , какбудут возрастать размеры витков спирали по мере увеличения номера ступени п .Приняв условно диаметрвитка при n 0 за 1 см получим размеры вышележащих витков, сведенные в таблицу 2.Таблица 2 п 1 2 3 4 5 6 Диаметры витков в см. 1 6 36 216 1296 7776 Таблица 2 дает наглядноепредставление о степени прогрес сивности роста информационной емкости по мереперехода
на вышележащие витки. Нетрудно заметить, что при n 3 , размеры витка 36см. близки к размерам раскрытойкнижки, при n 5 кразмерам довольно просторной залы с диаметром 12,96 м , а при п 6 кразмерам городской площади сдиаметром 77,76 м .Вследствие ростаинформационной емкости система, подни маясь в процессе развития на все болеевысокие уровни иерархической спирали и постоянно стремясь к состоянию жесткойдетерминации, оказывается тем дальше от этого состояния в смысле потенциальной возможности накопления информации
, чем больше витков в этой спирали ей удаетсяпройти.Как уже отмечалось,системы в своем развитии, как правило, не достигают состояния жесткойдетерминации. Условием их динамичного равновесия оказывается сочетание частичнодетерминированных , а частичновариабельных вероятностых внутренних связей. Соотношение степени детерминациии вариабельности внутренних связей может быть выражено количес твенно какотношение величины остаточной энтропии
Нr к количес твунакопленной и сохраняемой структурной информации D IS G Hr 3.23 D IS гдеG коэффициент стохастичности вариабельности,гибкости внутренних связей.Оптимальным соотношениемжесткости и гибкости внутренних связей Goptоказываетсятакое соотношение, которое соответствует степени вариабельности условий внешнейсреды.Результаты исследованийстатистических свойств письменных текстов дали близкие результаты для всехевропейских языков G frac14 Очевидно, эта величина G является для языка оптимальной, так как она характеризует соотношение,возникшее в результате эволюционного развития языка. Будучи величинойстатистической, она может варьироваться в зависимости от характера текста для служебных бумаг и инструкций G lt Gopt, для поэтических текстовG gt Gopt.Чем больше величина G, тем менее избыточным будет текст.
Избыточность текста характеризуется коэффициентом избыточностиR, определяемым как R Hmax – Hr D IS 3.24 Hmax Hmax Сопоставляя 3.23 и 3.24 . можно выразить величину Gчерез R как G 1 R 3.25 R ИНФОРМАЦИЯ И ЭНЕРГИЯДлявыявления взаимосвязи структурной информации с внут ренней энергией системвоспользуемся уравнением Гельмгольца U F ST 4.1 где U – внутренняя энергия F – свободная частьвнутренней энергии
ST – связанная энтропийная часть внутренней энергии S – физическая энтропия Т – абсолютная температура.В состояниитермодинамического равновесия вся внутренняя энергия становится энтропийной ,а сама энтропия достигает мак симальной величины 3 .Такимобразом , при достижении равновесиядостигается условие F 0 4.2 изкоторого, согласно 4.1 следует U Smax T 4.3 или
Smax U 4.4 T Преобразуемвыражение 4.1 , поделив левую иправую части уравнения на Т U F S 4.5 T T Подставляя 4.4 в 4.5 и перенося членS в левую часть с противоположным знаком,получаем Smax S F 4.6 T Длядальнейшего рассмотрения к входящему в выражение члену S добавим индекс r,имея в виду, что Sr это та реальнаяэнтропия, внутренняя энергия которойопределяется выражением 4.1 .Учитывая, что всоответствии с соотношением 1.4
S K H 4.7 приведем выражение 4.6 к виду F K Hmax Hr 4.8 T где К постоянная Больцмана Нтах максимальная информационная энтропия Нr реальная информационная энтропия .Сопоставляя 4.8 с ранее полученным выражением 2.7 получаем F KD IS 4.8 T Полученноесоотношение свидетельствует о том, что при неиз менном значении температуры Тсвободная часть внутренней энергии F зависит только отколичества сохраняемой системой структурной информацииDIS.Другими словами,свободная энтропия F это часть энергии, которая расходуется на определяющиеструктурную организацию системы межэлементной связи.Г.Гельмгольц назвал этучасть внутренней энергии свободнойэнергией имея в виду, что эту энергию, вотличие от составляющей внутренней энергии ST , можно освободить длятой или иной полезной работы. Такое освобождение осуществляется путем разрушения внутреннихсвязей, определяющих структуру исполь
зуемых для этой цели систем сжигания органических веществ нефти, угля , разрушения атомов или атомных ядер и т.п.Введем понятиепотенциального коэффициента полезного дей ствия 951 ,показывающего, какая часть внутреннейэнергии может быть, в принципе, использована для полезной работы 951 F 4.10 U Сучетом 4.4 и 4.9 выражение 4.10 приводится к виду 951 DIS 4.10 Hmax Сопоставляя 4.11 с выражением 3.24 , приходим к выводу, чтопотенциальный
КПД 951 равен коэффици енту избыточности R.Рассмотрим два крайнихсостояния систем, одному из которых соответствуют условия DIS 0 состояниеравновесия , а другому DIS Нmax жесткаядетерминация .В соответствии свыражением 4.11 в состоянииравновесия 951 0 поскольку вся внутренняяэнергия в этом случае оказыва ется не свободной , а связанной , т.к. F 0, a U Smax T .При жесткой детерминации DIS Нmax всоответствии с 4.11 ,
951 1.Это условие означает,что вся внутренняя энергия расходуется только на сохранение межэлементныхструктурных связей, поэтому структура такой системы останется неизменной жестко детермини рованной до тех пор, пока система не разрушится подвлиянием изменившихся условий внешней среды.При неизменных внешнихусловиях и при 951 1 осуществляется вечное движение ,примером которого может служить жестко детерминированное движение небесныхсветил и планет.ЗАКЛЮЧЕНИЕ. Подводя итог всему, что было сказано выше, отметим,что по мере того, как рациональная наука все глубже и глубже постигаетсложность организации существующих в мире систем она все в большей мереосознает недостаточность ранее признанных редукционистских концепций. Поискиисточников информации определяющей структуры и функции сложных систем, приводятнауку к необходимости создания телеологических концепций, то есть, в конечномсчете, к признанию некого организующего начала,
которое и есть не что иное, какпроявление воли Творца.СПИСОКЛИТЕРАТУРЫ 1. Седов Е Кузнецов Д. В начале было Слово СПб 1994. 2. Шеннон К.Е. Математическая теория связи.Работы по теории инфор -мации икибернетике М, 1963.3. Шеннон К. Е. Бандвагон. Работы по теорииинформации и кибернети ке ,
М 1963.4. Бриллюэн Л. Научнаянеопределенность и информация, М 1966.5. Винер Н. Кибернетика, или Управление и связь в животном и машине. М,1968.6. Аптер М. Кибернетика иразвитие М. 1970.7. Седов Е.А. Взаимосвязь информации, энергии и физической энтропии в процессахуправления и самоорганизации. Информация и управ ление. М Наука, 1986.8. Седов Е.
А. Эволюция иинформация. М Наука, 1976.9. Шеннон К. Е.Предсказание и энтропия английского печатного текста. 10. Пригожий И Ствнгврс И. Порядок из хаоса. М Прогресс, 1986.11. Тейяр де ШарденФеномен человека. М Наука, 1987. 1 Зависимостьвероятностей последующих событий от предыдущих определяется в теориивероятностей
термином корреляция . 2 Близкое куказанному сочетание избыточной и непредсказуемой информации было затемполучено в результате анализа тестов на русском и ряде европейских языков. 3 Данное состояние относится к категории теоретических абстракция, поскольку придостижении термодинамического равновесия не разрешается структура элементарныхчастиц.