Философия информации и сложных систем

Министерство образования Украины Житомирский инженерно-технологический институт Содержание Введение 2 Кобщему определению понятия информации 3 Количественные теории информации. Мера Шеннона 3 Качественный аспект информации 4 Информация как функция разнообразия 6 Отражение и информация 7 Информация и сложные системы 9 К определению понятия системы 9 Информация в кибернетических системах 11 Информация в теоретико-игровых моделях 13 Связь информации с законами и категориями диалектики 14 Законы диалектики и информация 14 Информация и развитие 15 Информация, законы природы и причинность 16 Пространство-время и информация 18 Информация и общество 19 Особенности социальной информации 19 Научно-техническая информация и познание 21 Общество и информатизация 22 Заключение 25 Литература 25 Введение
Теория информации — одна из наиболее бурно развивающихся отраслей современного научного знания. За полвека с момента возникновения она насчитывает почти столько же работ, сколько и теория относительности — один из фундаментальных разделов современной физики. В настоящее время формула количества информации К. Шеннона, наверное, известна не менее, чем формула взаимосвязи массы и энергии А. Эйнштейна. К тому же если теория относительности применяется только физиками, то теория информации проникает во многие науки о живой и неживой природе, обществе и познании, ее используют и физики, и биологи, и экономисты, и ученые многих других специальностей. Теория информации нужна не только науке, но и производству. Современное производство стало очень сложным; в связи с этим на первый план в нем выдвигаются вопросы организации и управления, основанные на процессах передачи и преобразования информации. Без изучения и широкого использования информации было бы чрезвычайно затруднено дальнейшее преобразование вещества и энергии в процессе производства. Кроме того, совсем недавно появился и в настоящее время бурно развивается принципиально новый сектор производства — производство не вещественно-энергетических, а чисто информационных товаров. Естественно, что интенсивное развитие теории информации и ее приложений ставит ряд вопросов философского характера. И прежде всего возникает проблема выявления содержания самого понятия “информация”. При анализе этого понятия мы вынуждены вовлекать в рассмотрение материальный субстрат, на котором развертываются процессы движения информации — информационные системы. Поэтому в обзор философской теории информации входит как неотъемлемая часть изложение основных положений философской теории систем. Структура изложения такова. Сначала описан ряд частных теорий информации, обладающих весьма ограниченной областью применения, но дающих хорошие результаты для определенных классов явлений. Каждая из этих теорий сама по себе связана с теми или иными философскими обобщениями и потому их рассмотрение имеет непосредственное отношение к теме реферата. Далее раскрывается связь понятия информации с философскими категориями различия и отражения. Определение информации, получаемое на этом пути, принимается в качестве наиболее общего и используется всюду в оставшейся части. Второй раздел посвящен системам и информационным процессам в них. Дано общее определение системы и уточнены отдельные аспекты этого понятия. Отдельно рассмотрен класс систем, имеющий особую важность, — сложные самоуправляемые (кибернетические) системы. В третьем разделе описана связь понятия информации с законами и категориями диалектики. Особое внимание уделено категориям причинности, пространства, времени и развития. Наиболее сложным из известных систем являются человеческое общество. Чрезвычайно сложны и информационные процессы, протекающие в нем. В последнем разделе рассматривается социальная информация вообще и такой особый вид ее, как научная информация. Наконец, сказано о некоторых проблемах, специфических для современного общества и связанных с бурным развитием устройств обработки информации. Кобщему определению понятия информации Количественные теории информации. Мера Шеннона
До эпохи интенсивного развития систем связи и до возникновения кибернетики понятие информации считалось интуитивно понятным и не нуждающимся в точных определениях, а тем более в философском анализе. История учений об информации начиналась с разработки ее количественного аспекта, что диктовалось потребностями радио- и телефонной связи. При этом любая количественная теория неизбежно была связана с попыткой дать то или иное общее определение. Каждой формуле количества информации соответствовал свой взгляд на ее сущность. Наиболее разработанной является статистическая теория информации [А11], [Б11], возникшая на базе теоретико-вероятностных подходов и связанная с определением информации как снятой неопределенности. В задачах теории связи рассматривается система, состоящая из источника информации, приемника и расположенного между ними канала связи. Существенно, что для получателя единственным способом получения информации является считывание сообщения из канала связи. Иными словами, приемная сторона не может достоверно предугадать следующее сообщение. Так в рассмотрение вводится понятие неопределенности, играющее в теории фундаментальную роль. До приема сообщения у приемника существует неопределенность (незнание) относительно того, какое сообщение придет следующим. Акт приема сообщения снимает данную неопределенность. Если известно, что в канале всязи отсутствуют помехи, то неопределенность снимается полностью. В противном случае неопределенность устраняется лишь частично, так как у приемной стороны остается еще неопределенность (сомнение) относительно того, не является ли принятое сообщение результатом искажения. Таким образом, неопределенность, снимаемая в результате приема сообщения, отождествляется с информацией. Такое определение весьма близко к житейскому пониманию: информацией мы, как правило, склонны считать то, что для нас еще не известно, ново, то, что уменьшает наше незнание. Например, пусть нас интересует вопрос, прибыл ли поезд. При этом у нас нет никаких оснований для предположения, что он действительно прибыл, так же как и для противоположного предположения. Равновероятность этих двух возможностей означает максимальную неопределенность выбора. Позвонив на вокзал по телефону, и получив ответ на интересующий нас вопрос, мы тем самым устраним неопределенность до нуля. Заметим, что как положительный, так и отрицательный ответ (ввиду их равновероятности) устраняют неопределенность в равной мере. Устранение неопределенности выбора из двух равновероятных возможностей соответствует одному биту информации. Рассмотрим теперь другую ситуацию, аналогичную первой во всем, кроме того, что мы заранее на 90% уверены в том, что поезд еще не пришел, и лишь 10% оставляем на долю сомнения. Получив по телефону ответ “поезд не пришел”, мы не узнаем почти ничего нового: мы и так были заранее подготовлены к такому исходу. Поэтому есть основание считать, что получено мене 1 бита информации. Напротив, получив неожиданный ответ, то есть ответ с большей неопределенностью, мы получаем более 1 бита информации. Количественным выражением неформального понятия “неопределенность” служит известная и с успехом применяемая мера Шеннона. Пусть всего возможны типов сообщений, причем для каждого типа сообщения априори известна его вероятность . Неопределенность отдельного типа сообщения выражается формулой . Эта формула полностью удовлетворяет рассмотренному выше требованию, так как для более вероятных событий, , она дает малую неопределенность и, наоборот, для маловероятных событий () получаем возрастающую неопределенность . В частности, событие, которое с полной достоверностью может быть предсказано заранее () не несет никакой информации (). Теперь для определения средней неопределенности одного акта приема сообщения нужно лишь усреднить индивидуальные неопределенности по множеству типов сообщений:
Формула Шеннона совпадает по виду с формулой Больцмана для статистического определения энтропии, взятой с обратным знаком [А2]. В термодинамике энтропия служит мерой хаотичности, беспорядка в системе. Таким образом, информация, будучи отрицательной энтропией (негэнтропией) может рассматриваться как вклад в упорядочение системы. Развитие статистической теории информации привело к следующим результатам. Во-первых, стало возможным строгое количественное исследование информационных процессов. Во-вторых, был расширен объем понятия информации, так как статистическая теория полностью отвлекается от двух высших семиотических аспектов информации: семантичиского (смыслового) и прагматического (ценностного). С позиций этой теории информацию несет не только человеческая речь, но и любые объекты и процессы, которые подчиняются статистическим закономерностям. Далее, статистический подход позволил выявить фундаментальную связь информационных процессов и термодинамики. Знак “минус” в формуле Шеннона однозначно указывает на то, что информационные процессы в известном смысле противоположны естественным термодинамическим процессам, ведущим, как известно, к деградации. Статистическая теория прямо связывает информацию с процессом превращения возможности в действительность, случайности в необходимость, что уже дает основание для философского анализа. Наконец, в рамках статистического подхода было получено первое определение информации, удовлетворительное с философской точки зрения: информация есть устраненная неопределеность. Вместе с тем, статистическая теория обладает и существенными недостатками, которые являются продолжением ее достоинств. Во-первых, информация связывается лишь со случайными процессами, подчиняющимися вероятностным законам. Статистическая теория утверждает, что информационные процессы не происходят в однозначно детерминиованных системах. В частности, компьютер, выполняющий определенную программу и функционирующий по законам необходимости, оказывается, согласно статистической теории, неинформационной системой, а игральная кость — информационной. Во-вторых, отвлечение от осмысленности и полезности информации, вполне уместное при анализе систем связи, уже не может нас удовлетворить, если речь идет о живых системах, о человеке и обществе. Эти и другие неадекватности заставляют искать иные, более общие определения информации. Это, конечно, означает не отказ от статистической теории, а лишь четкое определение области ее применимости. Характерной особенностью статистической теории является то, что в качестве математического средства формализации понятия неопределенности была выбрана вероятность. Однако понятие неопределенности в общем случае оказывается шире понятия вероятности, а статистическая теория не может правильно описывать те процессы снятия неопределенности, которые к вероятности не сводятся. Действительно, пусть имеется множество элементов, из которых осуществляется выбор. Выбор может происходить и по заранее заданному закону (детерминированному алгоритму), неизвестному познающему субъекту. В этом случае у субъекта существует неопределенность относительно данного закона, однако эта неопределенность имеет невероятностную природу. Даже если к такому случаю удастся применить статистическую теорию, это будет искусственный прием, искажающий внутреннюю логику и сущность познаваемого процесса. Это есть ни что иное, как втискивание реальной ситуации в прокрустово ложе готовой теории вместо того, чтобы разработать теорию, адекватную своему предмету. Невероятностные теории, относящиеся к качественному аспекту информации, будут рассмотрены ниже. Здесь же упомянем одну из наиболее известных невероятностных количественных теорий — алгоритмический подход А. Н. Колмогорова. В основе подхода лежит тот факт, что количество информации, заключенной в объекте нас чаще всего интересует не само по себе (абсолютное количество информации), а относительно определенного объекта , то есть взаимное, относительное количество информации. Количество информации по А. Н. Колмогорову — это сложность объекта относительно объекта , данного в качестве строительного материала. А именно, количество информации измеряется как наименьшая длина алгоритма, строящего объект из объекта . Алгоритмический подход связан с конструктивным направлением в математике. Качественный аспект информации
Теории, имеющие дело с “чистым” количеством информации, по необходимости ограничиваются синтаксическим аспектом — низшим в тройке семиотических характеристик. Однако информация имеет еще и качественную сторону (вернее, стороны), некоторые из которых успешно формализуются и изучаются средставми математики. В частности, для некоторых качественных характеристик информации получены количественные выражения. Наиболее простая теория, имеющая отношение к качеству информации — это теория кодирования. Данное направление развивалось в тесной связи со статистической теорией, но отнюдь не сводится к ней. Для теории кодирования характерно использование не вероятностных, а алгебраических методов. Понятие кодирования охватывает такие процессы, как перевод предложения с одного естественного языка на другой, представление текста в памяти компьютера, где каждой букве ставится в соответствие числовое обозначение, переход от “человеческого” алфавита к азбуке Морзе и обратно и т. д. Система правил, позволяющая переводить сообщение из одной формы представления в другую, называется кодом. В процессе кодирования форма представления информации, вид сообщения, количество символов, используемых для его записи, и другие характеристики могут существенно меняться. Однако, и это главное, содержание сообщения остается неизменным. Следовательно, от перекодирования не изменяется неопределенность, устраняемая сообщением у субъекта. Таким образом, кодирование изменяет качественную природу носителя информации и количественные характеристики формы представления сообщения, но не изменяет количество и качество информационного содержания сообщения. Как видно, теория кодирования, хотя и имеет определенное отношение к качественному аспекту информации, все же не выходит за пределы синтаксического уровня. В человеческом общении особую роль играет смысл информации, то есть семантический аспект. Одна из известных семантических теорий — теория Р. Карнапа и Й. Бар-Хиллела [А11], использующая аппарат символической логики. По существу, каждому предложению, выражающему законченную мысль, ставится в соответствие его вероятность (мера истинности). Когда из более простых суждений образуются более сложные, вероятность последнего вычисляется по определенным правилам исходя из вероятностей исходных суждений. Таким образом, теория Карнапа — Бар-Хиллела основывается на вероятностной логике. Допустим, имеется начальное достоверное знание о мире , и пусть — гипотеза. Методы вероятностной логики позволяют вычислить степень новизны гипотезы по сравнению с начальным знанием — . Степень новизны тем больше, чем меньше данная гипотеза следует из установленных фактов. Очевидно, если сбъекту будет сообщена новая информация, никак не следующая из имеющегося у него запаса знаний, то субъект получит большое количество информации. Наоборот, если то, что субъекту сообщено, и без того следует из известных фактов, то никакой новой информации субъект не получает. На основании этого в теории Карнапа — Бар-Хиллела степень новизны сообщения и считается количеством семантической информации. С точки зрения данной семантической теории высказывание “На Марсе есть жизнь” содержит немалое количество информации, ибо эта гипотеза не подтверждена имеющимися экспериментальными данными. В то же время высказывание “На Земле есть жизнь” оказывается лишенным семантической информации, ибо это достоверное знание. Хотя положение, лежащее в основе теории, согласуется со здравым смыслом, последовательное проведение такой точки зрения, очевидно, должно приводить к неадекватностям. Другой подход к формализации семантического аспекта был предложен Ю. А. Шрейдером. В его модели информацией обладают не только гипотезы, но вообще любые сведения, которые изменяют запас знаний (тезаурус) приемника информации. В общем случае семантический аспект выражает отношение между информацией как компонентом отражения и отражаемым объектом, который играет роль передатчика информации. В модели Ю. А. Шрейдера количество семантической информации, содержащееся, например, в каком-либо тексте, измеряется степенью изменения тезауруса под воздействием этого текста. Это изменение может быть определенным способом измерено количественно. При чтении школьного учебника тезаурус школьника существенно расширяется, — ученик получает новую информацию. Тезаурус же академика при чтении того же учебника не изменяется, он не получает семантической информации, не изменяет запаса знаний. В любом случае учет семантического аспекта требует рассмотрения отношения двух сторон: информации и воспринимающего субъекта, так как одна и та же информация для двух разных людей может обладать различным смыслом. Синтаксический аспект информации требует рассмотрения лишь одной стороны, то есть самой информации. Рассмотрим теперь еще одно отношение, трехстороннее — между информацией, субъектом и целью, которую ставит перед собой субъект. Это отношение соответствует высшему, прагматическому аспекту. Одним из наиболее важных прагматических свойств информации является ценность. Ценность информации вначале была определена с помощью теоретико-вероятностного подхода (А. А. Харкевич). А именно, если до получения сообщения вероятность достижения цели субъектом была , а после его получения стала , то ценность полученной информации (или прагматическое количество информации) определяется через приращение этой вероятности. Существуют и другие подходы к определению ценности информации, среди которых особое место занимают теоретико-игровые модели. Важно отметить, что ценность одного и того же сообщения существенно зависит как от субъекта, так и от поставленной цели. Вне связи с целью прагматический аспект информации вообще теряет смысл. Понятие цели обычно характеризует человеческую деятельность, а также может быть применено к животному миру и кибернетичнским устройствам. В неживой природе нет никаких целей, а значит и отсутствует такое свойство информации, как ее ценность. Учет прагматического аспекта приводит к выводу, что иногда следует рассматривать отрицательные количества информации. Пусть, например, ставится цель: запуск аэростата. Для этого необходимо знать направление ветра. Допустим, нам сообщили, что дует северо-западный ветер. Безусловно, это сообщение уменьшает нашу неопределенность и приближает к достижению цели. Допустим теперь, что сразу же после первого собщения приходит опровержение: дует юго-восточный ветер. Если применить меру Шеннона, то оба сообщения несут одинаковое положительное количество информации. Но с точки зрения прагматической второе сообщение возвращает нас к состоянию первоначальной неопределенности, так как мы уже не знаем, какому из сообщений верить. Наконец, чья-то намеренная дезинформация (которая по Шеннону также доолжна рассматриваться как положительное количество информации) уменьшает наши шансы на достижение цели и потому имеет отрицательную ценность. Из изложеного можно сделать вывод, что развитие учений об информации происходит одновременно во многих направлениях. Каждое направление фиксирует определенную сторону понятия информации и имеет свою область применимости. При выходе за границы этой области эффективность применения того или иного подхода резко падает и может даже привести к ошибочным выводам. Наилучшего, универсального определения среди перечисленных (и многих других) формальных математических определений информации нет. Примечательно, что при анализе всех трех семиотических аспектов информации: синтаксического, семантического и прагматического, первыми разрабатывались вероятностные теории, а затем происходил постепенный тход от вероятностных моделей. Тем самым само понятие информации освобождалось от слишком узких вероятностных представлений. Количественные меры информации выступают как наиболее простой уровень научного знания об информации. После овладения количественными методами неизбежен подъем на следующую ступень — постижение глубокой сущности информации. Из приведенного далеко не полного перечня несводимых друг к другу частных теорий информации обнаруживается многогранность и сложность понятия информации. В связи с этим возникает вопрос о наиболее общем определении информации, не специально-научном, а философском, которое бы не противоречило ни одной из существующих частных теорий и содержало бы их в себе в виде частных случаев. Информация как функция разнообразия
В основе более широкого подхода к определению понятия информации лежит представление о тесной связи информации и разнообразия. Данная точка зрения является в настоящее время наиболее широко распространенной и аргументированной [А6]. Согласно этой концепци природа информации заключается в разнообразии, а количество информации выражает количество разнообразия. Концепция разнообразия хорошо согласуется со всеми упоминавшимися ранее теориями информации. Так, в статистической теории рассматривается разнообразие сообщений, а устранение неопределенности можно представить как ограничение разнообразия возможностей до одной реализовавшейся действительности. Рассмотрим пример. Пусть дано множество, состоящее из 10 различных элементов, то есть множество, обладающее большим внутренним разнообразием. Выбор одного, заранее не указанного, элемента, говоря языком статистической теории, устраняет неопределенность . Если же совокупность однообразна, то есть состоит из совершенно одинаковых элементов, принадлежащих к одному типу, то случайный выбор элемента никакую неопределенность не устраняет: мы и так заранее знаем, к какому типу будет принадлежать выбранный элемент (). Следовательно, чем больше разнообразие элементов, теи больше информации заключено в акте выбора одного из них. В комбинаторной теории рассматривается разнобразие элементов и разнообразие связей между ними. Алгоритмическое количество информации определяет разнообразие операций алгоритма, необходимых для воссоздания объекта. Очень ярко выражена идея разнообразия в теории семантической информации Ю. А. Шрейдера, где количество семантической информации определяется через степень изменения тезауруса, то есть через изменение разнообразия запаса знаний субъекта. Концепция разнобразия не противоречит и общежитейскому пониманию информации. Ведь мы обычно понимаем под информацией нечто новое, отличное от уже известного. Таким образом, каждая частная теория информации изучает некоторый специальный вид разнообразия. То, что для одной теори выступает как разнообразие (информация), для другой может быть однообразием, тождеством (отсутствием информации). Так, одно и то же сообщение (однообразие на уровне синтаксиса) может иметь разный смысл для различных субъектов (разнообразие на уровне семантики). Наоборот, два сообщения, совершенно различных с синтаксической точки зрения, могут нести одинаковый смысл. Поэтому синтаксические теории информации имеют дело с иным типом разнообразия, чем семантические. Методологическая эффективность и перспективность концепции разнообразия, согласно [А11], состоит в следующем. Во-первых, концепции разнообразия дает возможность прийти к тем же результатам в построении той или иной теории, которые достигались исходя из каких-либо других соображений. Она позволяет интерпретировать на единой основе различные теории и концепции информации, чего лишены другие, более узкие трактовки информации. Во-вторых, концепция разнообразия открывает возможность развития теорий информации в соответствии со следующим принципом: каждому виду разнообразия должен соответствовать свой вид информации и наоборот. В-третьих, на ее основе можно проследить связь информации с законами и рядом категорий диалектики. Определяя информацию как меру разнообразия, мы имеем в виду информацию, взятую в определенный момент времени, в одномоментном срезе. Соответственно, все информационные процессы должны рассматриваться как трансформации, количественные и качественные изменения разнообразия, передача разнообразия во времени и пространстве. Статистическая теория вводит в рассмотрение процесс ограничения неопределенности, акт выбора. Иными словами, статистическая теория — это не столько теория информации, сколько теория элементарных форм движения информации. Сама же информация определяется на основе процесса своего движения. То, что концепция разнообразия свободна от акта выбора, является ее существенным достоинством, так как жесткая привязка понятия информации к процессам ее движения сужает область применимости теории. Подход к определению информации, близкий к концепции разнообразия, имеется и в работах академика В. М. Глушкова. Он характеризует информацию как “меру неоднородности в распределении энергии (или вещества) в пространстве и во времени”. “Информация существует постольку, поскольку существуют сами материальные тела и, следовательно, созданные ими неоднородности. Всякая неоднородность несет с собой какую-то информацию”. (Цитируется по [А11]. ) Данное определение информации имеет одно важное следствие. Разнообразие (различие) объективно свойственно всей материи. Любые два объекта хоть чем-то различаются (иначе это не были бы разные объекты), и сам по себе каждый объект содержит внутренние различия. Следовательно, определяя информацию на основе понятия разнообразия, мы тем самым признаем, что информация является атрибутом материи, носит всеобщих характер, и что информационные процессы свойственны в том числе и неживой природе. Отражение и информация
Выше понятие информации было определено на основе понятия разнообразия, и, следовательно, на основе категории различия. В настоящем разделе будет показана связь понятия информации и категории отражения ([А6], [А8], [А10], [А11], [Б9], [Б16], [Б17], [Б18]). В частности, определение “информация = разнообразие” оказывается неполным, и для исчерпывающего определения необходимо привлечь отражение. Рассмотрение содержания категории отражения начнем с понятия взаимодействия и причинности. Воздействие одного тела на другое сопряжено с отражением. При этом объект, являющийся причиной, называется отражаемым, а объект-следствие — отражающим. Отражение является стороной причинной связи. Из всего содержания понятия взаимодействия извлекается лишь определенный аспект. Под отражением в широком смысле понимается процесс и результат воздействия одной материальной системы на другую, который представляет собой воспроизведение в иной форме особенностей (черт, сторон, структуры) одной системы в особенностях (чертах, структуре) другой системы. В процессе взаимодействия в общем случае возможны и другие изменения, которые не соответствуют особенностям отражаемой системы. Но от этих последних изменений при определении отражения отвлекаются. Если попытаться раскрыть, в чем именно заключается соответствие между отражающим и отражаемым, то можно прийти к такому определению. Отражение — это воздействие одной материальной системы на другую, ведущее к установлению определенного (конкретного) тождества между системами, когда внутренние различия одной системы (отражающей) соответствуют внутренним различиям другой системы (отражаемой). Как следует из приведенного определения, отражение выступает как диалектическая связь тождества и различия двух объектов, причем тождество объектов выражается через различие и благодаря ему. Такое определение дает возможность выразить информационный аспект отражения. А именно, информация есть ни что иное, как содержание отражения. Содержанием отражения являются те изменения, различия в отражающей системе, которые соответствуют внутренним различиям отражаемой системы. Таким образом, информация с позиций теории отражения может быть представлена как отраженное разнообразие, то разнообразие, которое один объект содержит о другом объекте. Симметричным образом информацию можно определить и как разнообразностный аспект (сторону, компонент) отражения. Покажем, что все виды движения информации в информационных системах являются, по существу, процессами отражения. Всего есть четыре формы движения информации: восприятие, передача, хранение и переработка, причем восприятие и передача дуальны друг к другу и всегда образуют пару. Рассмотрим сначала пару восприятие — передача. Пусть объект А передает информацию, а объект Б ее принимает. Когда говорят о восприятии информации, неявно предполагается, что воспринятая информация будет некоторое время храниться в объекте-приемнике. Иными словами, для того, чтобы информация действительно была воспринята объектом Б, в нем должны произойти какие-то относительно устойчивые изменения, в которых и будет закодирована принятая информация. Далее, поскольку информация исходит от объекта А, она есть ни что иное как часть внутреннего разнообразия этого объекта, оторванная от самого объекта и перенесенная на материальный носитель другой природы. В результате приходим к выводу, что изменения внутреннего разнообразия объекта Б соответствуют какой-то части разнобразия объекта А. Следовательно, в данном случае имеет место отражение объекта А объектом Б. Объект, передающий информацию, выступает в роли отражаемого, а принимающий — в роли отражающего. Хранение информации — это ее передача не в пространстве, а во времени. Отражаемым объектом является запоминающее устройство в начальный момент времени, а отражающим — то же устройство в последующие моменты. Переработка информации — это также ее передача (отражение) во времени, однако между процессами хранения и переработки информации как отражательными процессами имеется существенная разница. Хранение предполагает полное (на уровне синтаксиса) совпадение образа и оригинала. При переработке же неизбежно изменяется синтаксическая форма информации, а также могут подвергаться изменениям ее смысл и ценность. Таким образом, между информацией-оригиналом и информацией-образом имеет место более высокий тип тождества, чем в случае хранения, — генетическое тождество. В большинстве случаев в реальном процессе отражения передача информации от отражающего объекта к отражаемому происходит в форме сигнала. Следовательно, для того чтобы осуществился процесс отражения, кроме отражаемого и отражающего объектов, необходим третий компонент — среда, передающая информацию, закодированную в форме сигнала. В теории связи под сигналом понимают любой процесс или объект, при помощи которого можно передавать информацию, кодировать различия. Те свойства сигналов, которые не изменяются (или от изменения которых отвлекаются), — не несут информации, для воспринимающего объекта они тождественны, лишены внутренних различий. Те же свойства сигналов, которые могут передавать различия, изменяются соответственно изменению (различиям) передающего (отражаемого) объекта. Сигналы и соответствующие им процессы отражения можно разделить на четыре типа: сигналы в неживой, живой природе, обществе и технике. В неживой природе сигнальный характер взаимодействий не используется телами, информационный процесс не выделяется из вещественно-энергетического. Переработка информации связана с соотнесением информации, воспринимаемых различий с объектами, которые передают эти различия в форме сигналов. Такого соотнесения нет в неживой природе, отражение там носит пассивный характер. В живой природе отражение существует на двух уровнях: допсихическом и психическом. Этим уровням соответствуют две различные формы передачи информации: посредством сигналов-кодов и сигналов-образов. Допсихическому отражению соответствуют сигналы-коды. Кодирование возникло в процессе эволюции как выделение биологическими системами именно информационных (в отличие от вещественно-энергетических) характеристик материи. Примерами кодов могут быть выделяемые животными пахучие вещества, которыми они метят свою территорию. Высокоразвитые животные используют наряду с кодами более совершенные сигналы — психические образы. Примером может быть отпугивающая поза кошки (выгнутая спина, распушенный хвост, прижатые уши), сопровождаемая шипением или рычанием. Отличительная особенность трех высших классов отражения состоит в том, что здесь информационное содержание как бы отделяется от своего материального носителя и обретает относительно самостоятельное бытие. Так, работа современных компьютеров сводится к передаче последовательностей электрических импульсов, подчиняющейся определенным правилам. Однако мы все же определяем компьютер не как устройство для передачи электрических импульсов, а как устройство для обработки информации. При этом для нас несущественно, каков материальный носитель информации в компьютере: электричество, свет (оптические компьютеры), сжатый воздух (пневматические вычислительные машины). Более того, в высокоорганизованных системах, как правило, имеются сложные цепи отражения, состоящие из качественно разнородных объектов, отражающих друг друга. Информация (разнообразие) меняет свою форму, проходит через несколько промежуточных носителей, возможно, совершенно различной природы, и, тем не менее, остается собой, то есть сохраняет свое содержание. В процессе передачи отражения по цепи отражающих друг друга объектов теряется ряд различных особенностей первоначального отражаемого прообраза, утрачивается часть его содержания, а остается лишь то, что можно объективировать, передать. Таким образом, информация выступает как сторона, компонент отражения, его инвариант, который может перекодироваться, передаваться, опредмечиваться и т. д. Категория отражения оказывается шире понятия информации, так как информация — это лишь один из компонентов отражения. Отражение содержит ряд неинформационных аспектов: модальность, тип сходства образа и оригинала и др. Анализ отражательных процессов приводит к выводу о том, что они зависят от своих материальных носителей по целому ряду характеристик. Между тем, информационное содержание отражения инвариантно по отношению к носителю: все равно, передается информация по проводам, на бумаге или в устной речи. Рассмотрим с этих позиций процесс передачи информации от человека к человеку. Вначале человек А, отражая некоторый объект М всеми органами чувств, формирует богатый и целостный образ объекта. Этот образ наверняка содержит черты, не сводящиеся к “чистой” информации. Предположим, человек А рассказывает об объекте М человеку Б. При этом происходит кодирование, опредмечивание образа, выделение из него информационного содержания (инварианта), что неизбежно связано с упрощением и обеднением. Получатель Б не только пассивно запоминает рассказ А, а формирует на его основе свой, новый образ, вплетая информацию в среду своих ассоциаций, переживаний и т. д. В результате у двух человек получаются два во многом различных образа. Общее же между этими образами заключается именно в информационном инварианте. Связь информации с разнообразием и отражением имеет важное методологическое следствие. Каждому виду отражения, так же как и каждому виду разнообразия, должен соответствовать свой вид информации и наоборот. Эта гипотеза нацеливает на поиск соответственных неизвестных компонентов триады “информация — отражение — разнообразие”, если известен хотя бы один из них. Выше была изложена концепция, которая, по мнению авторитетных специалистов [А6], является на сегодняшний день наиболее аргументированной и перспективной. Наряду с ней имеется и ряд других точек зрения на связь информации и отражения. Не останавливаясь на них подробно, покажем общую картину, основанную на классификации по двум критериям. Во-первых, имеется спектр точек зрения от простого отождествления информации с отражением до утверждения о возможности существования информационных процессов вне процессов отражения. Во втором случае иногда делается вывод о том, что информация есть более общая категория, чем отражение, и отражение определяется на основе информации. Следующее разделение проходит по линии между “аспектными” и “видовыми” концепциями. Сторонники первых полагают, что информация входит как компонент, аспект, сторона в любые отражательные процессы. Следствием является признание атрибутивного характера информации. (Таким образом, изложенная выше теория относится к классу аспектных. ) Наоборот, в видовых теориях утверждается, что информация присуща лишь некоторым видам отражения и, по существу, тождественна им. Информация, согласно этой точке зрения, возникает только на уровне жизни, неразрывно связана с управлением, и существует только в единстве всех своих семиотических характеристик: синтаксических, семантических и прагматических (иными словами, то, что лишено полезности и не используется для каких-либо целей, — не есть информация). Один из выводов видовых теорий состоит в том, что в процессе познания информация не воспринимается человеком из неживой природы (ведь ее там просто нет), а создается в результате взаимодействия органов чувств с отражаемыми объектами. Как отмечено в [А6], предпочтение аспектной концепции должно быть отдано, в частности, потому, что только она позволяет говорить об объективном существовании информации. Информация и сложные системы К определению понятия системы
Рассмотренные выше аспекты, стороны понятия информации относятся либо к статической информации, рассматриваемой в определенный момент времени, либо к наиболее примитивным актам ее движения. Анализ же информационных процессов невозможен без привлечения сведений о той среде, материальном субстрате, на котором эти процессы базируются. В самом деле, информация сама по себе не есть материя, это способ организации материальных объектов (например, совокупность состояний всех нейронов в мозгу). Следовательно, любые процессы обработки информации — это прежде всего процессы, происходящие в каких-то объектах. Существенно, что эти объекты не могут рассматриваться как неделимые: важно проследить движение информации внутри объекта. Важно также то, что для сколько-нибудь сложных информационных процессов внутреннее устройство объектов, в которых происходят эти процессы, должно быть тоже достаточно сложным. Методологической базой для изучения расчленимых сложных объектов является системно-структурный подход, который в настоящее время приобрел статус общенаучного метода ([А1], [А7], [А8], [А11], [А13], [Б2], [Б4], [Б5], [Б14], [Б19]). Основные понятия системного подхода изложены ниже. Система есть множество связанных между собой компонентов той или иной природы, упорядоченное по отношениям, обладающим вполне определенными свойствами; это множество характеризуется единством, которое выражается в интегральных свойствах и функциях множества [А8]. Выделим некоторые явные и неявные характеристики систем, заключенные в приведенном определении. 1. Любые системы состоят из исходных единиц — компонентов. В качестве компонентов системы (в широком смысле) могут рассматриваться объекты, свойства, связи, отношения, состояния, фазы функционирования, стадии развития. В рамках данной системы и на данном уровне абстракции (конкретизации) компоненты представляются как неделимые, целостные и различимые единицы, то есть исследователь абстрагируется от их внутреннего строения, но сохраняет сведения об их эмпирических свойствах. Объекты, представляющие собой единицы, из которых состоит система, могут быть материальными (например, атомы, составляющие молекулы, клетки, составляющие органы) или идеальными (например, различные виды числа составляют элементы теоретической системы, называемой теорией чисел). Свойства системы, специфичные для данного класса объектов могут стать компонентами системного анализа. Например, свойствами термодинамической системы могут быть температура, давление, объем, а напряженность поля, диэлектрическая проницаемость среды поляризация диэлектрика суть свойства электростатических систем. Свойства могут быть как изменяющимися, так и неизменными при данных условиях существования системы. Свойства могут быть внутренними (собственными) и внешними. Собственные свойства зависят только от связей (взаимодействий) внутри системы, это свойства системы “самой по себе”. Внешние свойства актуально существуют лишь тогда, когда имеются связи, взаимодействия с внешними объектами (системами). Связи изучаемого объекта также могут быть компонентами при его системном анализе. Связи имеют вещественно-энергетический, субстанциальный характер. Аналогично свойствам, связи могут быть внутренними и внешними для данной системы. Так, если мы описываем механическое движение тела как динамическую систему, то по отношению к этому телу связи имеют внешний характер. Если же рассмотреть более крупную систему из нескольких взаимодействующих тел, то те же механические связи следует считать внутренними по отношению к этой системе. Отношения отличаются от связей тем, что не имеют ярко выраженного вещественно-энергетического характера. Тем не менее, их учет важен для понимания той или иной системы. Например, пространственные отношения (выше, ниже, левее, правее), временные (раньше, позже), количественные (меньше, больше). Состояния и фазы функционирования важны для анализа функциональных, действующих на протяжении длительного времени систем. Сам процесс функционирования (последовательность состояний во времени) познается путем выявления связей и отношений между различными состояниями. Примерами могут быть фазы сердечного ритма, сменяющие друг друга процессы возбуждения и торможения в коре головного мозга и др. Наконец, этапы, стадии, ступени, уровни развития выступают компонентами генетических систем. Если состояния и фазы функционирования относятся к поведению во времени системы, сохраняющей свою качественную определенность, то смена этапов развития связана с переходом системы в новое качество. 2. Между компонентами множества, образующего систему, существуют системообразующие связи и отношения, благодаря которым реализуется специфическое для системы единство. Система обладает общими функциями, интегральными свойствами и характеристиками, которыми не обладают ни составляющие ее элементы, взятые по отдельности, ни простая “арифметическая сумма” элементов. Иначе говоря, свойства системы в целом неаддитивны по отношению к свойствам ее элементов и подсистем. Существенным показателем внутренней целостности системы является ее автономность, или относительная самостоятельность поведения и существования. По степени автономности можно в известной степени судить об уровне и степени их относительной организованности и самоорганизованности. 3. Существенными характеристикамилюбых систем являются присущие им организация и структура, с которыми тесно связано математическое описание систем. 4. Любая система существует лишь в определенных границах изменений ее свойств, поэтому обычно задаются максимальные и минимальные значения ее переменных. 5. Относительность понятий “компонент” (“элемент”) и “система” (“структура”) состоит в том, что любая система может, в свою очередь, выступать в качестве компонента или подсистемы более широкой системы. С другой стороны, компоненты, выступающие при анализе системы как нерасчлененные целые, при более детальном рассмотрении (микроанализе) сами по себе проявляют себя как системы. В любом случае (и именно это служит основой для расчленения системы на подсистемы) связи элементов внутри подсистемы сильнее, чем связи между подсистемами, и сильнее, чем связи между элементами, принадлежащими различным подсистемам. Существенно также то, что количество типов элементов (подсистем) ограничено, внутреннее разнообразие и сложность системы определяется, как правило, разнообразием межэлементных связей, а не разнообразием типов элементов. 6. Для любых (и особенно высокоорганизованных) систем важно выяснить характер связи подсистем, иерархических уровней внутри системы; в системе сочетаются взаимосвязь ее подсистем по одним свойствам и отношениям и относительная независимость по другим свойствам и отношениям. В самоуправляемых системах это выражается, в частности, в сочетании централизации деятельности всех подсистем с помощью центральной управляющей инстанции с децентрализацией деятельности уровней и подсистем, обладающих относительной автономностью. 7. Сложная система — это результат эволюции более простой системы. Система не может быть изучена, если не изучен ее генезис. Итак, познание того или иного объекта как системы должно включать в себя следующие основные моменты: а) определение структуры и организации системы; б) определение собственных (внутренних) интегральных свойств и функций системы; в) определение функций системы как реакций на выходах в ответ на воздействие других объектов на входы; г) определение генезиса системы, т. е. способов и механизмов ее образования, а для развивающихся систем — способов их дальнейшего развития. Особенно важной характеристикой системы является ее структура. Унифицированное описание систем на структурном языке предполагает определенные упрощения и абстракции. Если при определении компонентов системы мы абстрагировались от их строения, рассматривая их как нерасчлененные единицы, то следующий шаг заключается в отвлечении от эмпирических свойств компонентов, от их природы (физической, биологической и пр. ) при сохранении различий по качеству. Таким образом, при анализе структуры мы имеем дело с абстрактными качественно различными единицами. Между компонентами системы, как было отмечено выше, существуют различные связи и отношения. Сами способы связи и виды отношений зависят как от природы компонентов, так и от условий существования системы. Для понятия структуры специфичен особый и в то же время универсальный тип отношений и связей — отношения композиции элементов. Отношения порядка (упорядоченности) в системе существуют в двух видах: устойчивые и неустойчивые применительно к точно определенным условиям существования системы. Понятие структуры отображает устойчивую упорядоченность. Структура системы есть совокупность устойчивых связей и отношений, инвариантных по отношению к вполне определенным изменениям, преобразованиям системы. Выбор этих преобразований зависит от границ и условий существования системы. Структуры объектов (систем) того или иного класса описываются в виде законов их строения, поведения и развития. В заключение кратко остановимся на взаимосвязи и взаимозависимости систем и составляющих их элементов. Здесь обнаруживаются следующие диалектические закономерности [Б5]. Относительная самостоятельность структуры, независимость ее от элементов. При удалении из системы одного или нескольких элементов структура может остаться неизменной, а система может сохранить свою качественную определенность (в частности, работоспособность). Удаленные элементы в некоторых случаях могут быть без ущерба заменены новыми, инокачественными. В этом проявляется преобладание внутренних структурных связей над внешними. Зависимость структуры от элементов. Структура не существует как независимое от элементов организующее начало, а сама определяется составляющими ее элементами. Совокупность элементов не может сочетаться произвольным образом, следовательно, способ связи элементов (структура будущей системы) частично определяется свойствами элементов, взятых для ее построения. Например, структура молекулы определяется (частично) тем, из каких атомов она состоит. Относительная самостоятельность элементов, независимость их от структуры. Вхождение элемента в структуру более высокого уровня мало сказывается на его внутренней структуре. Ядро атома не изменяется, если атом войдет в состав молекулы, а микросхеме “все равно”, в составе какого устройства она функционирует. Зависимость элементов от структуры. Элемент может выполнять присущие ему функции только в составе системы, только в координации с соседними элементами. В некоторых случаях даже сколько-нибудь длительное сохранение элементо своей качественной определенности невозможно за пределами системы. Рука, отрезанная от тела, есть рука только по названию (пример В. И. Ленина). Информация в кибернетических системах
Все материальные системы можно рассматривать как преобразователи информации, работающие со своими собственными кодами. Именно такой подход был развит в работах Н. М. Амосова ([А1], [А11], [Б2]). Так, на атомном уровне код состоит из элементарных частиц, на молекулярном — из атомов, главным кодом социального уровня является речь. В связи с этим Н. М. Амосовым ставится проблема взаимоотношения высших и низших кодов. Большая белковая молекула может получать информацию, передаваемую низшими кодами — элементарными частицами и отдельными атомами. Но высший код для нее — молекулярный. Если на нее подействовать, скажем, словом, то она “не поймет”, так как ее качество, ее структура не в состоянии воспринимать этот слишком высокий код. В сложной системе Н. М. Амосов выделяет этажную структуру обработки информации. На каждом этаже функционирует своего рода транслятор, воспринимающий код низшего этажа и вырабатывающий код более высокий. При продвижении вверх информация убывает количественно (так как на каждом этаже происходит абстрагирование, отсечение множества несущественных деталей, присутствующих в низшем коде), но переходит в более высокое качество. Например, код молекул слишком низок для человека. Воздействие отдельной молекулы не может нами непосредственно восприниматься. Зато согласованное квазипериодическое движение множества молекул воздуха, проходя несколько этажей обработки, воспринимается нами как звук, затем — как слово, а на верхнем этаже переходит в понятие. Абстрагирование в этом случае заключается, например, в том, что при выделении слова из звука для нас несущественным становится тембр голоса говорящего, а при переходе к понятиям мы отвлекаемся от отдельных слов. Высший код может быть разложен на знаки низшего кода, так как каждый знак высшего кода является результатом соединения определенным образом в пространстве или во времени некоторого числа низших знаков. Но заменить высший код низшим нельзя, так как переход от низшего кода к высшему есть качественный скачок. Остановимся на характеристике процессов регулирования и управления в кибернетических системах (как живых, так и технических). Общей чертой всех кибернетических систем является то, что на протяжении всего периода существования они защищают сами себя от внешних возмущений ([А10], [А11], [Б19]). К этой защитной функции может быть так или иначе сведен обширный спектр более частных функций. Покажем, что основу и сущность данной функции составляют информационно-отражательные процессы. Под возмущением понимают воздействие на систему, стремящееся перевести ее из одного состояния в другое. Возмущения могут быть как внешними, так и внутренними, связанными с нарушением функционирования какого-либо органа внутри системы. Поскольку состояние системы характеризуется информационным содержанием (= разнообразием), то действие возмущения есть изменение разнообразия системы. Очевидно, не всякое изменение состояния системы совместимо с ее существованием. Так, при воздействии системы “кошка” на систему “мышь” последняя уничтожается (теряет свое прежнее качество). Таким образом, существование системы возможно лишь в определенном диапазоне изменения ее состояний. Если под воздействием определенных возмущений система остается в пределах допустимых состояний (сохраняет свою качественную определенность), говорят, что она устойчива по отношению к данному типу возмущений. Устойчивость системы может быть достигнута двумя путями: во-первых, если на пути разнообразия возмущений ставится пассивная преграда, во-вторых, если возможна активная защита от него. Первый способ защиты применяется, в основном, сравнительно примитивными животными. Примерами могут служить всевозможные раковины и панцири. Однако основным способом сохранения устойчивости кибернетических систем является активная защита, состоящая в том, что между источником возмущений и системой ставится регулятор. Основная функция регулятора — в ответ на разнообразие возмущений вырабатывать контрразнообразие компенсирующих действий. Процессы, происходящие во всех типах регуляторов, подчиняются фундаментальному закону, называемому законом необходимого разнообразия (У. Росс Эшби). Суть его состоит в следующем. Для того чтобы ответная реакция регулятора была адекватна возмущению, необходимо, чтобы регулятор сначала воспринял, отразил возмущение, вычленил существенную информацию о нем. А это означает, что информационная емкость (= разнообразие состояний) регулятора должно быть не меньше, чем разнообразие возмущений. В процессе эволюции живых существ преимущество получили не “панцири”, а “мозги”. Совершенствование технических устройств также шло по линии от пассивной к активной защите. Наиболее общим механизмом активной защиты является управление по принципу обратной связи. Возмущения — это, по большей части, непредсказуемые, случайные процессы. Система, как правило, “узнает” о возмущении лишь после того, как подвергнется его действию и окажется переведенной в другое состояние, отличное от запланированного. Различие между заданным и действительным состоянием (между целью и результатом) оказывается сигналом для приведения в действие регулятора. Цель регулирования заключается в том, чтобы уменьшать данное различие (отрицательная обратная связь). Рассмотрим обобщенную схему системы с обратной связью (см. рис. ) [Б14]. Стрелками показаны направления передачи информации. Система получает информацию о внешнем мире (M) и обрабатывает ее, после чего воздействует на внешний мир, передает ему часть информации (N). Известно, что только такая структура позволяет хранить и накапливать информацию. В ряде случаев количество информации, заключенной в системе, будет увеличиваться не непосредственно в результате внешнего воздействия на систему, а в результате взаимодействия потоков информации внутри самой системы. А именно, проходящий сквозь систему поток M–A–B–N взаимодействует с внутренним потоком B–C–D–A таким образом, что общее количество информации увеличивается. Информация, циркулирющая по замкнутому контуру A–B–C–D–A, называется к связанной информацией, и может считаться частью структуры системы. Это устойчивые знания системы о внешнем мире, те знания, которые постоянно нужны для поддержания функционирования системы. Именно накопление связанной информации противостоит естественному процессу возрастания энтропии и обусловливает прогрессивное развитие системы, т. е. закономерное усложнение ее структуры, повышение уровня организации. Как видно из схемы, связанная информация может накапливаться в результате переработки свободной информации, т. е. той информации, которой система обменивается с внешним миром (M–A–B–N). Системы, способные обмениваться информацией с внешним миром, подобно показанной на рис. , называются открытыми. Системы можно классифицировать по их способности к взаимодействию и способности использовать информацию. (см. табл. ) Открытые системы
Системы, способные воспринимать, хранить, терять, накапливать и использовать свободную и связанную информацию Информационные системы
Системы, способные передавать свободную информацию и терять связанную информацию Неинформационные системы Закрытые системы Системы, способные лишь терять связанную информацию
Управление в ибернетических системах можно разделить на три типа: самосохранение, саморазвитие и самовоспроизведение [А11]. Эти типы управления связаны с различными классами разнообразия и с различными видами генетического тождества. В случае самосохранения конечная цель управления заключается в сохранении целостности, качественной определенности системы. Примером может служить относительная неизменность любого организма в его зрелом возрасте, нормальное функционирование кибернетических устройств, работающих по принципу обратной связи. Характерная черта этого типа управления — сохранение информационного содрежания структуры кибернетической системы и постоянство цели управления. При самосохранении кибернетическая система остается тождественной самой себе в структурном отношении. Назовем этот тип тождества генетическим тождеством первого рода. Саморазвитие — более сложный тип управления. С точки зрения самосохранения необязательно совершенствование, прогресс системы. Саморазвитие же предполагает накопление структурной информации, а значит и изменение структуры. Система, саморазвиваясь, уже может изменять свой тип целостности, качественной определенности, оставаясь в то же время сама собой. Этот, более высокий тип тождества можно назвать генетическим тождеством второго рода. Примером саморазвивающихся систем могут быть эмбрионы, молодые, не достигшие зрелости организмы, а также самообучающиеся кибернетические устройства. Еще более сложный тип управления — самовоспроизведение. Он свойствен живым организмам и обществу (экономике, науке, культуре и т. д. ). Имеются и первые искусственные самовоспроизводящиеся системы — компьютерные вирусы, относящиеся не к классу устройств, а к чисто информационным образованиям. Общим для всех процессов самовоспроизводства является то, что при сохранении или даже увеличении информационного содержания одной системы ею прождается другая система, как правило, способная к саморазвитию. Иными словами, информация от первой системы не отбирается, а дублируется, причем частично. Потомок создается не как законченная и точная копия предка, а как “заготовка”, наследующая лишь главные особенности структуры и способная самостоятельно накапливать информацию. Предок и потомок — это две различные системы, занимающие различные области в пространстве и существующие в различные промежутки времени. Поэтому то тождество, которое существует между ними (генетическое тождество третьего рода), имеет еще более высокий тип. Общий вывод из приведенного рассмотрения состоит в том, что управление всегда связано или с сохранением, или с увеличением структурной информации системы. Впрочем, этот вывод нельзя абсолютизировать и считать, что если система имеет управление по принципу обратной связи, то ее информационное содержание не может уменьшаться. Дело в том, что управление в системе осуществляется лишь в отношении определенных возмущений, а другие возмущения не устраняются. В случае действия непредусмотренного возмущения, от которого система не может защититься, ее информационное содержание может снижаться. Таким образом, управление связано с сохранением или повышением количества информации лишь в определенном отношении и в определенных пределах. Отражение и информация в кибернетических устройствах имеют ряд черт, присущих отражению и информации в неживой природе [А6]. Это связано с тем, что субстратом отражательных процессов, элементами кибернетических устройств являются неживые объекты, функционирующие по закоам физики. Однако организация этих устройств принципиально отличается от организации систем неживой природы, ибо они воплощают замысел человека. В неживой природе информационные процессы не выделены из энергетических. Любая неживая система участвует в информационном процессе “целиком”, всей своей структурой. У нее нет специального органа, отдела, который бы отвечал за информацию. В отличие от этого, кибернетические системы обладают такой структурой, благодаря которой они способны выделить информационое содержание из несущего его потока вещества или энергии. Специфической чертой отражения в кибернетических устройствах является то, что при помощи свойства отражения, присущего неживым объектам моделируются информационно-отражательные процессы, присущие живой природе и даже обществу. Процессы отражения в неживой материи при создании кибернетических устройств организуются и упорядочиваются таким образом, чтобы сопутствующие им информационные процессы были изоморфны (в общем случае гомоморфны) информационным процессам, протекающим в биологических и социальных системах. Материальные носители низших форм отражения несут информационную нагрузку, свойственную высшим формам отражения. Эта особенность отличает отражение в кибернетических устройствах от прочих форм отражения и позволяет говорить об особой кибернетической форме отражения [А10]. Информация в теоретико-игровых моделях
К новому пониманию информационных процессов можно прийти, если в качестве источника возмущений, действующих на кибернетическую систему, рассмотреть другую кибернетическую систему [А10]. Иными словами, рассматриваются две системы, находящиеся в состоянии конфликта. В цели каждой из двух систем входит помешать другой системе в достижении ее целей и оградить себя от помех со стороны соперника. Математическая теория, изучающая подобные процессы, называется теорией игр. Многие ситуации, возникающие в жизни общества и в технике, допускают теоретико-игровую формализацию. Примем частное определение информации как снятой неопределенности. Большая часть игр так или иначе связана с неопределенностью. Рассмотрим различные виды игровой неопределенности и соответствующие им виды информации. В играх, известных под общим названием азартных, основной вид неопределенности — это статистическая неопределенность. Игрок не знает заранее, как ляжет карта, или какая цифра выпадет при бросании кости. Однако важной чертой статистической неопределенности является то, что априори известны вероятности всех возможных исходов. Чисто азартные игры (кости, орлянка, рулетка) — это игры исключительно статистические, других типов неопределенности они не содержат. Вся статистическая неопределенность полностью устраняется при очередном ходе. Итак, статистическая неопределенность связана с объективно случайным характером процессов, используемых в игре. Другой тип неопределенности характерен для так называемых игр с полной информацией (шашки, шахматы, рэндзю, решение головоломок типа кубика Рубика). В любой момент игрок обладает полной информацией о текущем положении дел. С формально-математической точки зрения, принципиально возможно перебором всех возможных вариантов и прослеживанием всех возможных последствий выбрать оптимальный ход. Однако число возможных ходов и их последствий настолько огромно, что на практике этого невозможно сделать. Неопределенность этого типа называется комбинаторной. Статистическую, комбинаторную и некоторые другие типы неопределенности объединяет то, что неопределенность связана исключительно с самой по себе игровой ситуацией (раскладом карт, расположением цветов на гранях куба), то есть с синтаксическим аспектом информации о состоянии игры. Синтаксическая неопределенность может быть связана как с ходом противника (я не знаю, что выпадет на рулетке), так и с собственным ходом (я не знаю, на какое число поставить). Неопределенность более высокого типа связана с тем, что игрок, пусть даже обладая полной информацией на синтаксическом уровне, не может до конца выяснить ее смысл. Неопределенность этого типа называется семантической. Неопытный шахматист, играя с гроссмейстером, не сразу поймет, что последовательность ходов противника вместе составляет единый маневр. Возможна также семантическая неопределенность своего хода (я не знаю, какой маневр предпринять) и семантическая неопределенность в отношении действий противника. Семантическая неопределенность всегда существует в такой игровой ситуации, как научное познание (игра с природой). Такие постоянно развивающиеся формы, как понятия, категории, теории включают на семантическом уровне наряду с определенностью также некоторую неопределенность. Семантической неопределенностью обладают совокупности экспериментальных данных (неизвестно, какой закон за ними кроется). Если синтаксическая неопределенность связана только со структурой множества возможных ходов (своих или противника), то семантическая неопределенность связана еще и с особенностями отражения этого множества в системе (сознании игрока). В случае статистической неопределенности при незнании конкретного исхода следующего хода все же известно распределение вероятностей, а в случае семантической неопределенности неизвестны даже вероятности. Наиболее сложный вид неопределенности в игре — это стратегическая неопределенность. Игрок не знает, какого образа действий придерживается противник, какие цели перед собой ставит. Неопределенность этого типа обычно несвойственна играм (в обычном смысле этого слова): цель игры четко определена правилами, но присуща различным сферам человеческой деятельности (бизнес, политика и т. д. ). Информация, снимающая стратегическую неопределенность — это стратегическая информация. Частным случаем стратегической неопределенности является неопределенность прагматическая, состоящая в незнании (вернее, в неполном знании) игроком собственных целей. Прагматическая неопределенность связана с неадекватностью и неполнотой самоотражения субъекта, с неполной информацией о себе и о своем месте в игровой ситуации. Между видами неопределенности и соответствующими видами информации обнаруживаются отношения взаимной подчиненности. Пока я не знаю, чего хочу сам, для меня бесполезна информация о стратегии других людей. Только когда мои цели определены, эта информация становится мне нужна — для выработки собственной стратегии. Лишь после того как продумана стратегия, можно планировать тактику — определять смысл (семантику) более мелких этапов. И лишь после этого можно переходить к уровню синтаксиса — планировать и совершать отдельные поступки. При сборе сведений о противнике информация проходит лестницу уровней в обратном направлении. Естественно, что противник никогда сам не раскроет свою тактику (семантику) и тем более стратегию (прагматику). В лучшем случае я могу надеяться получить синтаксическую информацию — какие конкретные действия предпринимает противник, какими сообщениями обменивается по каналам связи (хотя и синтаксическая информация обычно засекречивается). Информацию высших уровней можно получить лишь путем анализа, переработки и обобщения непосредственно получаемой информации о действиях противника. Связь информации с законами и категориями диалектики Законы диалектики и информация
Диалектика, как известно, представляет собой всеобщую теорию развития. Поэтому действие основных законов диалектики проявляется, главным образом, при анализе информационных процессов (а не информации в одномоментном срезе). Рассмотрим по очереди три основных закона диалектики в приложении к движению информации ([А6], [А11], [Б1], [Б3]). Закон единства и борьбы противоположностей. Причину всякого информационного процесса, как и всякого вообще процесса, составляет взаимодействие двух противоположных начал. Так управление по принципу обратной связи основано на различии, несовпадении “желаемого” и “действительного” состояний системы и направлено на устранение разрыва между ними. В процессе обмена информацией между системой и внешней средой, как правило, имеет место противодействие системы негативным влияниям среды. Внутренняя противоречивость процессов управления заключается еще и в том, что самовоспроизводящиеся и самосовершенствующиеся системы в процессе функционирования, оставаясь в одном отношении тождественными самим себе (хотя бы генетическое тождество сохраняется всегда), в другом отношении могут претерпевать существенные изменения, вплоть до изменения своей качественной определенности. Противоречивую роль информационных процессов раскрывает закон необходимого разнообразия Эшби. Хотя информация сама по себе связана с разнообразием, различием, ее использование в сложных самоуправляемых системах направлено на сохранения тождества. Только постоянно изменяясь под воздействием окружающей среды, только отражая ее изменения, система может остаться собой, сохранить свое качество. Рассмотрим следующую ситуацию. Пусть мы пытаемся узнать что-либо об определенном объекте. Наши начальные представления о нем характеризуются полной неопределенностью. Это означает, что разнообразие возможных (с нашей точки зрения) предположений относительно данного объекта максимально. Всякий раз, когда мы узнаем об объекте что-то новое, круг допустимых предположений сужается, то есть, уменьшается разнообразие гипотез. В этом отношении получение информации есть ограниячение разнообразия (что равносильно рассматриваемому в статистической теории устранению неопределенности). В другом отношении получение информации сопряжено с нарастанием разнообразия. А именно, возрастает разнообразие тех достоверных фактов, которые нам известны и тех следствий, которые могут быть нами из них получены, иными словами, возрастает сложность имеющейся у нас картины мира. Прогрессивное развитие всегда связано с ограничением разнообразия. Из множества возможных сценариев эволюции на практике реализуется только один. Из сотен тысяч органических молекул в живые организмы входят лишь сотни, из сотен аминокислот — лишь 20 и т. д. Но этот процесс сопровождается увеличением сложности, внутреннего разнообразия прогрессирующих систем, в частности, усложнением поведения (= увеличение разнообразия реакций) живых существ. Итак, любой процесс движения информации связан с уничтожением, ограничением одного вида разнообразия и одновременным увеличением другого его вида. Закон перехода количественных изменений в качественные. В процессе эволюции любой системы происходит накопление заключенной в ней информации. На первых этапах приспособления к новым условиям внешней среды информация о среде накапливается в виде свободной информации. Это чисто количественный рост “знаний” системы о внешнем мире, не приводящий к изменению ее качественной определенности. При достижении определенного порога (при превышении меры) свободная информация переходит в связанную, то есть происходит закрепление полученных знаний в структуре системы. Отныне те или иные особенности среды отражены в системе “жестко” и являются неотъемлемой частью ее самой. Любая перестройка структуры есть, очевидно, качественное изменение. Количественным накоплением информации сопровождался естественный процесс эволюции материи. Например, можно утверждать, что если информационное содержание объекта составляет несколько десятков бит относительно молекулярного уровня, то это наверняка объект неживой природы. Если же в объекте содержится порядка бит на том же уровне, то это, скорее всего, живой объект. Закон отрицания отрицания. Этот закон действует в сфере восходящего развития, то есть той линии развития, на которой происходит увеличение информационного содержания систем. В общем случае закон утверждает, что на более высокой ступени развития повторяются некоторые черты, свойственные исходной ступени, причем имеет место не полное копирование, а лишь частичное воспроизведение. В применении к информационным процессам это означает, что информационное содержание, достигаемое системой на последовательных ступенях развития, изменяется за счет поочередных отрицаний отдельных его частей. Второе отрицание, снимающее первое, ведет к частичному воспроизведению на качественно новом уровне информации, обогащенной опытом двух ступеней развития. Всякий раз, когда развивающаяся система повторяет одну из предшествующих своих черт, это означает воспроизведение прошлой структурной информации. Наилучшим примером может быть то, что высокоорганизованные системы способны привлекать собственный прошлый опыт для решения текущих задач. Допустим, система некогда попадала в определенные условия и выработала оптимальную программу поведения в этих условиях. После этого условия изменились, система вынуждена была отвергнуть прежнюю программу и выработать множество новых. Пусть теперь система попадает снова в условия, подобные первоначальным. Теперь она сможет воспроизвести выработанную ранее соответствующую программу, причем значительно быстрее, чем в первый раз, и значительно качественнее, так как теперь знание системы о внешнем мире обогащено памятью о многих различных ситуациях. Информация и развитие
Понимание информации как разнообразия тесно связано с наиболее общими представлениями о движении как изменении. Результатом движения системы становится различие (разнообразие) во временном отношении. Движение является атрибутом материи, неотъемлемо присуще материи и такое ее свойство, как различие. Поскольку понятие информации трактуется на основе категории различия, можно предположить, что информация также имеет атрибутивный характер. Связь понятий движения и информации, в частности, такова, что позволяет результат движения отображать методами теории информации. Это имеет большое значение для изучения процессов развития, дает возможность выработать информационный критерий, позволяющий устанавливать степень развития той или иной системы. Поскольку далее рассматривается лишь развитие каких-либо конкретных систем, то под развитием данной системы понимаются ее внутренние изменения, или изменения ее внутреннего разнообразия. Если внутреннее разнообразие системы не изменяется, то в этом случае движение системы относительно других систем будет “чистым” движением. Разнообразие, как отмечалось выше, имеет различные уровни, классы и т. д. Внутренне оно может изменяться на уровне: элементов, отношений порядка, прочих отношений и связей, целостности и т. д. Кроме того, возможны различные направления самого изменения разнообразия, например, прогресс и регресс. Под восходящим развитием, или прогрессом, понимается увеличение внутреннего разнообразия систем. На языке теории информации это означает накопление информации. Нисходящая ветвь развития, или регресс, означает уменьшение внутреннего разнообразия систем или уменьшение количества информации. Таким образом, изменение информационного содержания систем — это количественный критерий развития. Информационный критерий развития находит свое применение в теории эволюционного ряда, или ряда развития. Под ступенями развития материи имеются в виду наиболее общие материальные системы, которые последовательно появлялись друг за другом в процессе прогрессивного развития материи. Ступеней развития материи в принципе бесконечно много, но нам известны всего пять: дозвездная, звездная, планетарная, биологическая и социальная (этот ряд, хотя и связан с классификацией форм движения материи, далеко не изоморфен ей). Каждая ступень характеризуетсяструктурой (организацией), элементами которой являются определенные дискретные единицы. Так, для дозвездной ступени за структурную единицу можно принять элементарные частицы, для звездной — атомы, для планетной — молекулы, для жизни — организм, для социальной — человека. Структурная единица — это появляющийся именно на данной ступени развития основной ее элемент. Ступени развития сами по себе являются системами, поскольку удовлетворяют всем требованиям, предъявляемым к системам. Характерно, что количество информации в ступенях развития и во всех структурных единицах увеличивается. Прогрессивное развитие систем сопровождается качественными скачками. Поэтому прогресс системы сопровождается не только количественным ростом структурной информации, но и изменением ее качества. Это позволяет вводить в рассмотрение качественные информационные критерии развития. Например, степень развития некоторых технических систем характеризуется ценностью этих систем (= ценностью заключенной в них структурной информации). Ценность, как отмечалось выше, всегда связана с определенной целью. Приведем пример. На смену очень сложным по конструкции поршневым авиационным двигателям пришли более простые — реактивные. Упрощение конструкции последних есть уменьшение количества структурной информации. Поэтому, если пользоваться только количественным критерием развития, то изобретение реактивных двигателей следовало бы расценить как шаг к регрессу. Но ведь цель человека состоит не в усложнении конструкции двигателя, а в достижении более высокой скорости полета. Реактивные двигатели более полезны для достижения данной цели, чем поршневые. Так включение прагматического аспекта информации в критерий развития приводит нас к выводу том, что изобретение реактивного двигателя было прогрессивным явлением. Информация, законы природы и причинность
Закон отражает общие устойчивые связи и отношения между явлениями (или частями одного явления). Таким образом, закон есть структура явления, если последнее рассматривается как система. Как и всякая структура (инвариант), закон ограничивает разнообразие, так как из всех мыслимо возможных сценариев протекания процесса реализуются лишь те, которые подчиняются закону. Например, из всего мыслимого разнообразия процессов, происходящих с макроскопическими телами, возможными оказываются только те, которые удовлетворяют законам ньютоновской механики. Любое явление подчиняется не одному какому-либо закону, а совокупности законов, причем, вседствие неисчерпаемости материи, бесконечной. Каждый закон природы фиксирует лишь одну из бесконечного множества сторон явления и потому является абстракцией, упрощением по сравнению с действительностью. Следовательно, внутреннее разнообразие и информационное содержание закона меньше, чем у исследуемого явления. В то же время известно, что в абстрактном законе природа отражена глубже, вернее, точнее, чем в наших ощущениях, восприятиях и представлениях. В процессе отражения природы органами чувств последние огрубляют, ограничивают разнообразие объективно существующих систем. Бесконечное разнообразие реальных явлений нашими органами чувств отражается в виде конечного разнообразия. Часть информации при чувственном восприятии теряется. Однако благодаря абстрактному мышлению и знанию законов природы мы можем оперировать и той информацией, которая непосредственно не заключена в чувственном образе. Поэтому абстракция закона — это не простое ограничение эмпирического разнообразия, а лишь ограничение несущественных сторон чувственного образа явлений с целью расширить существенное разнообразие, непосредственно не доступное чувственному восприятию. Количество информации, содержащейся в научном законе, может быть измерено методами статистической теории информации [А2]. Пусть, например, исследуется зависимость между двумя физическими феличинами: и , причем обе величины могут изменяться в заранее установленных пределах: , (границы применимости теории). Квадратная область есть область всех мыслимых комбинаций значений исследуемых величин, когда зависимость между ними неизвестна. Площадь этой области есть ни что иное, как априорное разнообразие. В результате серии экспериментов был установлен эмпирический закон, связывающий величины и (жирная линия на рис. ) с определенной погрешностью (затемненная область). Теперь можно с уверенностью утверждать, что в природе реализуется лишь то разноообразие состояний, которое попадает в затемненную область, имеющую площадь . Таким образом, количество информации в эмпирическом законе может быть выражено через ограничение разнообразия: .
Возможен и другой подход к определению информационного содержания заакона или теории, прагматический, оценивающий ценность данного закона для достижения определенной цели, например, создания какого-либо прибора. Обширный класс законов природы — это законы, устанавливающие связь между состояниями системы в два различных момента времени, т. е. причинную связь. Поэтому обнаруживается связь информации с категорией причинности. Согласно А. А. Маркову, событие A содержит информацию о событии B в силу совокупности законов M, если наличие B может быть логически выведено из наличия A с помощью B. При этом A рассматривается как причина, B — как следствие. Вывод А. А. Маркова состоит в том, что причина содержит информацию о следствии. При однозначной причинной связи речь может идти о полной передаче информации от причины к следствию. При этом структура причины полностью передается следствию, воспроизводится в нем. Этот важный, но все же частный случай имеет место в механических цепях причинности. В классической механике при переходе от явления A к его следствию B не происходит ни потеря, ни накопление информации: события A и B эквивалентны в информационном отношении. Подобный информационный смысл в механическую причинность вкладывал еще Лаплас, когда предложил идею “демона”, который, зная все причины, мог бы предстказать все следствия. По одному звену однозначной причинной связи можно определить все остальные звенья, так как в них содержится одинаковое количество информации. Дальнейшее развитие науки выявило недостаточностьпредставлений о причинной связи как взаимно одноначном соответствии причины и следствия. Оказалось, что недетерминированное, а точнее — не полностью детерминированное поведение свойственно материи на уровне квантов. В этом случае имеет место многозначная причинность, когда одна причина (строго определенная) порождает не одно, а область возможных следствий. В случаях многозначной причинной связи невозможно точное воспроизведение структуры причины в структуре следствия. Их информационное содержание неэквивалентно. Во-первых, поскольку следствие определяется не только своей причиной, в нем содержится некоторая новая информация, которой в причине не было. С другой стороны, часть информации при переходе от причины к следствию безвозвратно теряется, вседствие чего точное знание следствия не позволяет однозначно восстановить причину. Прогрессивное развитие системы, как такое развитие, в ходе которого идет накопление структурной информации, возможно лишь в случае неоднозначной причинности. Отсюда следует, что лапласовский демон невозможен не только по техническим, но и по принципиальным причинам. В этой связи уместно сделать одно важное замечание. Расцвет механистических философских концепций совпал с эпохой линейных физических теорий, и не только по времени. Точнее, механицизм был естественным и необходимым философским обобщением линейной физики Ньютона. Согласно Ньютону, знание всех сил, действующих на тело, приводит к абсолютно точному знанию его поведения в будущем. Если весь мир подчиняется законам Ньютона, то он однозначно детерминирован. При этом в классической линейной физике источник движения, сила рассматривается как нечто внешнее по отношению к телу. Поэтому Ньютону необходимо было постулировать божественный первотолчок. Напротив, уравнения квантовой механики существенно нелинейны (формальная сторона), с содержательной стороны она рассматривает материю как нечто активное, заключающее в себе и неопределенность (недетерминированность), и потенции своего дальнейшего развития. То же самое, но только в отношении макроскопических свойств материи, можно сказать и об общей теории относительности. Таким образом, именно в признании фундаментальной роли нелинейности в картине мира есть ключ к 1) пониманию движения материи как самодвижения и 2) к переходу от однозначной к многозначной модели причинности. Нелинейной физике соответствует диалектическая философия. [Б11] Л. Бриллюэн в своей книге [А2] подробно проанализировал связь научных законов и теорий с понятием информации, опираясь на негэнтропийное определение информации. Один из наиболее важных выводов Л. Бриллюэна состоит в следующем. На протяжении веков ученые рассматривали погрешности экспериментов лишь как досадную помеху. Эта помеха могла быть большей или меньшей, но она всегда рассматривалась как нечто второстепенное, непринципиальное. Само собой разумеющимся считалось то, что ошибка измерений может быть сделана скль угодно малой. Наконец, содержащему погрешности эксперименту противопоставлялась строгая и точная теория, по мнению ученых свободная от всяческих ошибок и потому не считающаяся с погрешностями измерений. Бриллюэном, напротив, была показана та фундасментальная роль, которую играет ошибка, незнание, неопределенность в современной науке. Из помехи теории погрешность становится ее неотъемлемой частью. Исследователь более не является пассивным зрителем, наблюдающим явления и никак не влияющим на них. Всякий эксперимент — это взаимодействие исследователя и явления. Наблюдение само по себе возмущает и искажает наблюдаемое явление. Поэтому традиционная постановка вопроса “как ведут себя явления природы, когда на них никто не смотрит” теряет всякий смысл. Всякая современная теория описывает не само по себе явление, а взаимодействие явления с наблюдателем. Бриллюэн отмечает еще одну причину, по которой однозначная детерминация не может быть принята в качестве всеобщей. В рассуждениях об однозначной причинности причина считается заданной абсолютно точно. Но не может быть экспериментального способа точного определения причины. Даже если бы демон Лапласа был сконструирован, его невозможно было бы снабдить всей необходимой исходной информацией. По замечанию Бриллюэна, абсолютно точные исходные данные встречаются только в экзаменационных задачах по физике. Более того, было доказано, что именно благодаря наличию тех или иных ошибок и благодаря их принципиальной неустранимости становится возможным научное познание (еще одно проявление единства и борьбы противоположностей в информационных процессах). Так, в приведенном выше примере открытый эмпирический закон все еще обладает неопределенностью . Только потому, что эта неопределенность не равна нулю, количество информации, заключенное в законе, будет конечной величиной. Если бы закон был установлен с абсолютной точностью (), то он должен был бы содержать бесконечно много информации, что означало бы снятие бесконечно большой энтропии. Последнее, в свою очередь требует затраты бесконечно большой энергии и сопровождается бесконечным возрастанием энтропии окружающнго мира. Поэтому исследователь, стремящийся к открытию абсолютно точного закона, был бы обречен на бесконечное ожидание. Намного больших успехов добьется тот исследователь, который согласится принять неизбежные неточности как эксперимента, так и теории, и удовлетворится заведомо приблизительной моделью мира. Пространство-время и информация
Хорошо известно, что сущность пространства и времени неразрывно связана с движением материи. Но движение есть изменение, то есть различие. Когда мы говорим о различных объектах и явлениях, то имеем в виду, прежде всего, пространственные различия, а когда говорим о различных состояниях одного объекта (процесса), имеем в виду различия временные. Согласно принятой концепции любые классы различий могут послужить основой для применения теоретико-информационных методов. Свойства пространства и времени принято делить на две большие группы: метрические и топологические. Первые выражают количественный аспект. Метрические характеристики объектов и процессов носят ситуативный, преходящий, относительный характер: расстояние между двумя объектами, промежуток времени между двумя событиями. Помимо этого само по себе пространство-время (как реальное физическое, так и всевозможные абстрактные пространства, используемые во многих теоретических построениях) обладает определеными метрическими свойствами, главное из которых носит название метрики, или метрического интервала, и представляет собой, по существу, формулу для определения расстояния (в обобщенном смысле) между двумя точками пространства. К топологическим относятся наиболее общие и фундаментальные свойства. Реальное физическое пространство обладает такими топологическими свойствами, как трехмерность, непрерывность, симметричность, однородность. При наличии тяготеющей массы появляется топологическое свойство неэвклидовости и в связи с этим изменяются метрические свойства. Среди топологических свойств реального времени отметим одномерность, однородность, однонаправленность (необратимость). Рассмотрим, в какой связи находится информация и свойства пространства-времени. Возьмем для начала одномерное дискретное пространство, то есть прямую линию с выделенными на ней точками, перенумерованными целыми числами. Дискретность и одномерность относятся к топологическим свойствам. Метрическое свойство определим обычным образом: 1) расстояние между соседними точками примем равным 1; 2) расстояние аддитивно: для любых точек , и , где лежит между и , . Теперь возьмем отрезок этой линии, содержащий точек. Очевидно, количество информации, необходимое для однозначного задания определенной точки в этом отрезке, равно . Теперь перейдем к двумерному дискретному пространству и рассмотрим в нем квадрат точек. В этом случае каждая точка будет характеризоваться единицами информации. Вообще, для -мерного пространства эта величина составит . Аналогичное рассуждение можно провести и для непрерывных пространств. Как известно, для этого необходимо задаться величиной погрешности измерений , той точности, с которой могут быть определены координаты точки (о роли погрешности в исследовании законов природы см. предыдущий подраздел). Указание одной точки -мерного единичного гиперкуба потребует (относительно заданной погрешности) единиц информации. На основании этого можно заключить, что само по себе пространство (абсолютное пространство, рассматриваемое отдельно от каких бы то ни было объектов) обладает некоторой информационной емкостью. Рассмотрим теперь информационную емкость объектов, существующих в трехмерном пространстве. Поместим в сначала в пространство одну материальную точку. Для однозначного задания ее положения потребуется указать 3 координаты. Если точек две, то конфигурация описывается шестью координатами и т. д. Таким образом, чем сложнее (в смысле чисто количественного состава) пространственная конфигурация, тем большего количества информации требует ее описание. Это относится не только к реальному физическому пространству, но и к так называемым фазовым пространствам, к которым прибегают для описания состояния технических устройств. Суть метода состоит в том, что физические величины, характеризующие состояние системы, такие, как напряжения и токи, чисто формальным образом представляются как координаты фазового пространства. Таким образом, каждое состояние системы изображается одной точкой фазового пространства, а процесс ее функционирования (как последовательность сменяющих друг друга состояний) — фазовой траекторией. Кибернетическая система, по определению, — это система, перерабатывающая информацию. Связь фазовых пространств с информацией состоит в том что чем сложнее система, чем более сложные задачи она способна решать, тем более сложную топологию имеет область фазовых траекторий. Отдельный предмет рассмотрения составляют личное и социальное пространство и время, которые, как известно, вовсе не тождественны физическому пространству-времени. Постараемся показать, что их особые свойства связаны с особенностями информационных процессов в индивидуальном и общественном сознании. Человек, обладая памятью (явно информационная способность), может многократно переживать прошлые события, поэтому в топологии личного времени имеются возвратные петли. Другая способность, прогнозирование будущих событий, дополняет топологию времени опережающими петлями. Хорошо известно также, что течение личного времени неравномерно: в кульминационные моменты судьбы мы чувствуем, что время течет со стремительной быстротой, а в периоды успокоения и расслабления время словно останавливается. С точки зрения теории информации это можно объяснить количественной и качественной неравномерностью, неравноценностью воспринимаемого нами потока информации. Отчетливо проявляется также неравномерность хода социального времени. Поскольку количественной мерой прогресса человечества вполне можно считать количество накопленной социальной информации, поскольку наука стала непосредственной производительной силой, а информация — важнейшим производственным ресурсом, ускорение социального времени напрямую связано с информационными процессами, протекающими в обществе. Особенность личного пространства-времени состоит в том, что оно имеет вполне определенные границы. Мы помним только сравнительно недавнее прошлое, более давних событий для нас как бы не существует. Наша способность предсказывать будущее еще более ограничена, отдаленные будущие события для нас ненаблюдаемы. Личное пространство всегда имеет своим центром самого человека: я вижу только то, что вокруг меня; об остальном пространстве я могу только помнить или догадываться. Все эти особенности связаны, безусловно, со способностью индивида принимать и обрабатывать информацию о мире. Многие “неклассические” свойства человеческого времени, как личного, так и социального, описаны в художественных произведениях. Так, в антиутопии Дж. Оруэлла “1984” работа информационной спецслужбы (“Министерство правды”) приводит, по существу, к изменяемости исторического прошлого. Предельный случай неравномерности личного времени описан Х. Л. Борхесом в новелле “Тайное чудо”. В сознании расстреливаемого поэта за время полета пули проходит год, за который поэт успевает закончить главное произведение своей жизни. Гипотеза об удивительном топологическом свойстве физического времени содержится в рассказе “Сад расходящихся тропок” того же автора. Согласно этой гипотезе, в каждый момент времени, когда в нашем мире осуществляется какой бы то ни было выбор между равновероятными возможностями, мир разветвляется на несколько параллельных миров, в каждом из которых реализована та или иная возможность. Таким образом, параллельно существует бесконечное множество миров, в совокупности исчерпывающих все в принципе возможные сценарии развития. Данная топология времени имеет место лишь в сознании автора гипотезы, гипотеза обязана своим существованиям развитой способности к обработке и выработке информации у человека. Информация и общество Особенности социальной информации
Социальные системы — это особый, высший из известных нам типов материальных систем. И одна из особенностей общества, тесно связанная со всеми другими его характерными чертами и отличающая его от других типов систем — это способность к информационно-отражательным процессам особого рода ([А6], [А10], [А11], [Б6], [Б10], [Б13]). Биологическое и социальное отличаются в информационном плане “прежде всего тем, что последний тип организации характеризуется наличием особой надындивидуальной и внеорганической системы средств накопления, хранения и передачи от поколения к поколению существенно важной для коллективного объединения информации, программирующей действия входящих в него индивидов” (Маркарян, 71). Наличие специфически социальной формы передачи информации приводит к тому, что наряду с генетическими и условнорефлекторными программами поведения как чисто биологическими появляются новые формы детерминации поведения при помощи социальной информации и социальной памяти. Ю. Лотман дает информационное определение понятия “культура” как совокупности всей ненаследственной информации, способов ее организации и хранения. Человечество как особый тип организации материальных систем может существовать именно потому, что надындивидуальное накопление, хранение, передача и переработка информации оказались тесно связанными с развитием у человека преобразовательной функции. Биологические системы, в основном, приспосабливаются к окружающей среде, они с кибернетической точки зрения относятся к классу (преимущественно) адаптивных систем. В каждой отдельной человеческой личности сохраняется адаптивное свойство биологических систем. Общество же в целом выступает как адаптирующая система, приспосабливающая среду обитания к своим потребностям. Связь между адаптирующим характером человеческой деятельности и внеличностным накоплением информации проявляется в следующем. С одной стороны, неограниченные возможности преобразования природы открывают все новые возможности для создания носителей информации, для перемещения информации из индивидуального сознания во внешние хранилища. С другой стороны, преобразующая деятельность невозможна без отделения личного опыта членов общества от них самих, обмена информацией. А это легче и надежнее всего делать при помощи долговечных и общедоступных носителей. При взаимодействии общества с природой потоки информациии идут в двух противоположных направлениях. Во-первых, информация извлекается обществом из природы в процессе материальной практики и научного познания. Во-вторых, информация, переработанная обществом, переносится обратно в природу в процессе преобразующей деятельности, создания вещей, “второй природы”. Каждая вещь несет в себе информацию о своих создателях: вложенную в них научную информацию и сведения об их культуре, обычаях, укладе жизни. Так, археолог далекого будущего, найдя лазер 20-го века, сделает вывод, что людям этой эпохи была известна квантовая механика. А обнаружив тактическую ракету, он сделает вывод о количестве и интенсивности конфликтов в нашем мире. Предметы материальной культуры имеют двоякую роль: с одной стооны, они служат практическим целям, а с другой, — концентрируя в себе опыт предшествующей трудовой деятельности, выступают как средство хранения и передачи информации. Для современника, имеющего возможность получать эту информацию по многочисленным более прямым каналам, основной является первая функция. Но для потомка, археолога она полностью вытесняется второй. Характерной особенностью социальной информации является то, что высшие ее виды все более отдаляются от чувственно воспринимаемых вещей. Человек способен образовывать абстракции сколь угодно высокого уровня: абстракции от абстракций, абстракции от абстракций абстракций и т. д. Это невозможно было на биологической ступени развития, где информационно-отражательные процессы не были столь самостоятельными и были связаны непосредственно с потребностями организма. Выше уже омечалось, что биологическая эволюция связана с диалектическим отрицанием сигналов-кодов сигналами-образами. Возникновение человеческого общества характеризуется переходом от сигналов-образов снова к сигналам-кодам (коды 2-го порядка). Это знаковые формы сигналов в человеческом обществе. Особенность кодов 2-го порядка состоит в том, что они представляют собой знаки, обретающие внеличностную форму. К ним относятся книги, магнитофонные записи, фотоизображения и вообще любые объекты человеческой материальной и духовной культуры. Знаки отличаются от образов тем, что сами по себе не имеют никакого (по крайней мере, заметного) сходства с теми объектами реального мира, которые с их помощью отображаются. Написанное на бумаге слово как графический объект не похоже на звучание того же слова, а обе эти формы не похожи на обозначаемый ими объект. Использование знаков возможно только при достаточно развитой способности к абстракциям. Эта особенность культуры была замечена еще ранее представителями субъективного идеализма, например, неокантианцем Э. Кассирером, прагматистом Ч. Моррисом и др. (излагается по [А10]). Согласно их концепции (называемой “знаковой концепцией человека”), человек является не социальным, а символическим существом. Человеческая культура, по Кассиреру, представляет собой акты “объективизации” автономных творений духа в памятниках, документах, которые имеют лишь символическое бытие. Человек, таким образом, выступает как животное, создающее “символический мир”. Знаковая концепция абсолютизирует одну из реально существующих черт человеческой культуры и игнорирует другие существенные черты. Автору настоящего реферата более оправданной представляется, все же, материалистическая точка зрения, согласно которой первична общественная природа человека, а производство и использование знаков подчинено общественно-производственной деятельности. Различным формам общественного сознания соответствуют различные виды информации. Это различие относительно, так как между этими формами постоянно происходит обмен, в результате которого уровни социальной информации взаимно обогащаются. Так, информация, непосредственно получаемая древними в процессе материальной практики, находила свое причудливое отражение в мифах и легендах и наоборот, мифологическое мировоззрение оказывало влияние на практическую деятельность людей. В современном обществе происходит интенсивный обмен информацией между науками о природе, философией, моралью, обыденным сознанием. Так, в предисловии к одной из научно-популярных книг по физике сказано, что “ни один из разделов физики не способствовал в такой мере возвышению человеческого духа, как термодинамика, особенно ее второе начало”. Известно также то огромное влияние, которое оказали на философию теория относительности, квантовая механика и кибернетика. Проникновение философской информации в конкретно-научные исследования связано, в основном, с ее методологической функцией. Яркие примеры влияния науки и техники на обыденное сознание — космонавтика, и информатика (в особенности Интернет). Выше говорилось о той важной роли, которую играет структурная (связанная) информация в обеспечении устойчивости системы. В обществе роль такой структурообразующей информации играют традиции, верования, моральные устои, национальное самосознание, то, что позволяет обществу оставаться тождественным самому себе на протяжении веков. Очевидно, к информации такого рода неприменимы чисто количественные критерии. Здесь необходимо вовлечение качественны аспектов информации, смысловых особенно и ценностных. Научно-техническая информация и познание
Среди всех форм общественного сознания особо выделяется наука, которая в последнее время играет все большую роль в жизни общества. Особенностью 20 века стало превращение науки в непосредственную производительную силу. Теперь уровень развития производительных сил можно характеризовать не только и не столько количеством перерабатываемой энергии и вещества, но и количеством информации, заключенной в средствах производства, а также количеством информации, циркулирующей в системах управления производством ([А6], [А9], [А10], [Б6], [Б12], [Б13]). Кроме того, информация стала одним из важнейших производственных ресурсов наряду с сырьем и энергией. Предприятие, обладая одними лишь запасами сырья, не сможет ничего изготовить, если неизвестны технологии. Как и любой производственный ресурс, научная информация стала товаром. При этом имеется ряд существенных отличий информации от традиционных видов ресурсов, которые делают ее наиболее выгодным товаром. Уникальная ее особенность состоит в том, что информация при продаже, передаче, обмене не отбирается у владельца, а дублируется. Это значит, что можно продать сколько угодно копий одной и той же информации, вложив труд в ее производство только один раз. Далее, обмен и движение информации происходит значительно быстрее, чем любых “материальных” товаров, что позволяет чрезвычайно быстро делать деньги на информационном рынке. В отличие от любых других товаров, информация не теряет своего качества и не обесценивается в процессе потребления, в том числе и многократного. С другой стороны, информация быстро устаревает, обесценивается в результате научно-технического прогресса. Поэтому по отношению к информации совершенно неприменима тактика “скупого рыцаря”. Выгоду получает не тот, кто владеет информацией, а тот, кто ею постоянно обменивается. Все эти особенности привели к возникновению самостоятельного информационного сектора экономики, быстрый рост удельного веса которого позволяет уже говорить и о полностью информационных экономиках. Выгоднее стало изобретать новые материальные блага, чем производить их. В системе мирового разделения труда развитые страны все более берут на себя изобретающую функцию, оставляя производство на долю отсталых и бедных стран. Мир постепенно разделяется на страны — конструкторские бюро и страны — цеха [Б15]. Товаром, однако, становится не всякая научно-техническая информация. Особое место в науке занимают фундаментальные исследования, которые, как правило, настолько опережают развитие производительных сил, что их непосредственное использование в производстве совершенно невозможно. Владение фундаментальной информации не дает никакой экономической выгоды. С другой стороны, согласно выработавшемуся за последнее столетие моральному кодексу ученого, фундаментальные знания должны быть достоянием всего человечества. Международное сотрудничество в области фундаментальных исследований возможно только при условии активного и свободного обмена всеми получаемыми результатами. Только в этом случае удается избежать ненужного дублирования, координировать усилия, разрабатывать проблему с разных сторон и т. п. С другой стороны, товаром может становиться не только научная информация. Быстро устаревающие данные, информация разового пользования, такая, как курсы валют и котировки акций необходимы предпринимателям для успешной деятельности. Другой вид информации-товара представляет собой развлекательная информация. Развлечения и досуг имеют немалый удельный вес в печатной продукции, на телевидении и в Интернете. С прогрессом науки связана глобаьная проблема информационного кризиса. Она представляет собой противоречивое единство информационного взрыва и информационного голода. Информационный взрыв состоит в том, что общее количество научной информации, накопленной человечеством, растет экспоненциально. В нашем столетии в области физики, математики, биологии, астрономии было накоплено больше информации, чем за всю предыдущую историю человечества. Возникли новые направления и новые науки: кибернетика, синергетика, бионика, генетика и т. д. Парадокс информационного голода в том, что он являет собой обратную сторону информационного взрыва. Исследователь оказывается беспомощным в море информации. Даже по узкоспециальным темам публикуется больше, чем исследователь в состоянии прочитать. Проблема усугубляется тем, что нужная исследователю информация, по существу, никак не отделена от ненужной. Поэтому ученый вынужден тратить, по некоторым оценкам, до 50% (! ) времени на нетворческую работу, связанную с поиском и обработкой информации по теме своих исследований. Известно, что сделать открытие самому иногда оказывается проще, чем узнать, что оно уже сделано. Возможны два пути преодоления информационного кризиса. Первый путь состоит в создании технических средств хранения, обработки и передачи информации, избавляющих исследователя от рутинных операций поиска. Для этой роли как нельзя лучше подходит Интернет. Уже в его современном виде он обеспечивает широкий спектр функций поиска информации по любой заданной теме. Дальнейшее развитие Интернета должно проходить по линии интеллектуализации средств поиска, что невозможно без совершенно новых средств компьютерного анализа семантики текстов. В идеале сценарий работы ученого с Интернетом должен выглядеть следующим образом. Ученый задает (в свободной словесной форме) описание интересующей его темы. Сервер круглосуточно осуществляет семантический анализ всех материалов, помещаемых в Интернет учеными всего мира, находит среди них те, которые касаются заданной темы, сортирует их по степени важности, если необходимо, аннотирует и реферирует их и выдает ученому осортированную подборку текстов. (Подробнее о роли Интернета в жизни общества — в следующем подразделе. ) Этот путь, безусловно, чрезвычайно важен, и может привести к скачку в производительности интеллектуального труда. Но все же, он состоит в устранении следствия, а не причины кризиса. Причина же лежит в самой структуре (точнее — бесструктурности) научного знания. Развитие специальных наук идет по линии углубления и специализации знания, накопления все большего количества информации о все более узких классах явлений. Философия, наоборот, идет по линии обобщения, получая все более общие (и потому все менее содержательные) законы, касающиеся все более широкого круга явлений. В пределе наука будет знать “все ни о чем”, а философия — “ничего обо всем”. Экспоненциальный рост конкретно-научного знания привел к тому, что скорость накопления знаний превысила способность человека философски осмысливать их и приводить в целостную систему. Эта проблема может быть решена только построением принципиально новых интегральных теорий, междисциплинарных направлений, позволяющих с единых позиций подойти к качественно разнородным явлениям. Стало необходимостью открытие законов, с одной стороны, достаточно содержательных (что свойственно конкретно-научным законам) и, с другой стороны, достаточно общих (как законы диалектики). Такие теории по отношению к сегодняшнему научному знанию сыграют ту же роль, какую обычные естественнонаучные законы играют по отношению к совокупностям эмпирических фактов. Например, до создания Ньютоном целостной теории механического движения падение яблока, движение Луны и полет артилерийского снаряда представлялись совершенно различными явлениями, и единственный способ изучения их состоял в накапливании огромных массивов экспериментальных данных, практически бесполезных именно в силу своей необозримости. Открытие общих законов движения позволило “свернуть” все имеющиеся экспериментальные данные (и, что главное, все данные неосуществленных, но в принципе возможных экспериментов) в несколько компактных формул. Аналогичным образом, “объединенная теория” (“всеобщая теория всего” — по выражению С. Лема) должна свести к единым основаниям необозримое многообразие частных теорий. Систематизировать и структурировать сумму знаний — значит многократно упростить ее. Надежду на объединение наук дает тот факт, что в нашем столетиии уже возникло несколько междисциплинарных интегральных областей знаний, среди которых кибернетика и синергетика. Так, кибернетика обобщила данные биологии, социальных и технических наук показала изоморфизм всех процессов управления, существующих в живой природе, обществе и технике. (О синтезе знаний см. [Б20]) Здесь уместно сказать о качественном различии двух уровней информации: частных эмпирических законов и законов общенаучных. Частные закономерности содержат значительное количество информации об узких классах явлений. Информация этого типа выступает, главным образом, как отраженное разнообразие эмпирических фактов. Общенаучные и общефилософские законы содержат значительно меньшее количество информации, но приложимы к неизмеримо более широкому множеству явлений. В конкретно-научных исследованиях общефилософские законы играют, в основном, методологическую роль. В частности, они позволяют исследователю выделить заведомо бесполезные направления поиска, отсечь обреченные на провал гипотезы. Поэтому информация, заключенная в общих законах, выступает, главным образом, как ограничение неопределенности. Общество и информатизация
Изобретение в 20 веке устройств для автоматизированной обработки, хранения, передачи и выдачи информации, как, наверное, никакое другое изобретение в истории чнловечества, имело огромные последствия для современного общества. С одной стороны, с информатизацией связывались надежды на решение многих, если не всех, глобальных проблем, а с другой — в ней видели источник проблем еще больших. Несомненно, однако, то, что облик человечества под влиянием компьютеров существенно изменился (а в какую сторону — вопрос дискуссионный). Изобретение быстродействующих устройств, решающих сложные задачи вычислительного характера (именно этим ограничивались функции первых поколений ЭВМ) поставило человека перед тем фактом, что практически любой класс задач, подвластных человеку, допускает автоматное решение. Именно это заставило человека по-новому осмыслить множество философских проблем, главная из которых — место человека в мире. В свое время понимание того, что человеческий организм с физической точки зрения представляет собой термодинамическую систему и, следовательно, подчиняется второму закону термодинамики, заставило человека по-новому осознать себя. В наше время происходит подобное переосознание человеком себя как кибернетической системы. Одна из традиционных проблем, связанных с появлением всякой новой техники, связана с частичным вытеснением человека из некоторых отраслей деятельности. Но если раньше каждая новая машина имела лишь свою узкую область применения (большая часть машин просто заменяла тяжелый физический труд), то кибернетика сразу заявила, что нет такой области деятельности, которая не могла бы быть поручена кибернетическим устройствам. Первые же применения ЭВМ стали посягательством на традиционно человескую область интеллектуального труда. Поэтому за эйфорией по поводу ожидаемого взлета экономической эффективности последовали мрачные прогнозы о возможном полном вытеснении человека машиной. Человечество столкнулось с новой силой, им же самим вызванной к жизни, которая в будущем в принципе может во всем сравняться с человеком и даже превзойти его. Важнейшим аспектом проблемы человеко-машинного взаимодействия стала проблема искусственного интеллекта (ИИ) [Б8]. Специалисты в области кибернетики сразу же указали на принципиальную возможность сколь угодно полного и точного моделирования сознания, как индивидуального, так и общественного, при помощи технических средств. В самом деле, мозг человека состоит из конечного (пусть и большого) числа нейронов. Разнообразие информационных функций, выполняемых одним нейроном, очевидно, конечно. Следовательно, конечная совокупность технических средств способна моделировать все информационные процессы, происходящие в отдельном мозгу. В середине 90-х годов уже решена проблема моделирования нейронных систем, находящихся на уровне нервной системы головоногого моллюска (порядка 100 тыс. нейронов). Такие системы уже способны к самообучению, к образованию условных рефлексов и даже к простейшим “умозаключениям”, основанным на выявлении аналогий. Еще более захватывающие перспективы открываются, если отказаться от простого копирования человеческого сознания, а создать сознание, не похожее на наше. Живущие в виртуальном мире виртуальные существа с иной практикой, в корне отличной организацией “общества”, с “нечеловеческой” логикой, философией и искусством — все это еще чрезвычайно далеко от практического воплощения, но темпы развития техники (и все возрастающая опасность глобальных техногенных катастроф) заставляет заранее задуматься о проблемах взаимодействия человечества с созданной им самим новой цивилизацией. Здесь на первый план выходят не технические, а морально-этические проблемы. По мнению многих выдающихся специалистов, в частности, академика В. М. Глушкова ([Б7], [Б8]) драматических форм соперничества естественного и искусственного интеллекта можно избежать, если при разработке средств ИИ строго придерживаться принципа подчиненности машины человеку. С чисто технической точки зрения, машинный интеллект вполне может войти в конфликт со своими создателями, но только если в него заложена такая способность. Вместо этого нужно создавать инструмент, не заменяющий человека, а дополняющий его, выполняющий лишь второстепенные функции по поручению человека и освобождающий его тем самым от рутинной работы для творческого труда. Таким образом, искусственный интеллект по В. М. Глушкову — это соединение активного, целезадающего ума человека с пассивной, исполняющей машиной. Без человеческого компонента система неполна и не может (не должна) самостоятельно функционировать. В этой связи уместно отметить, что человеческий интеллект, если подходить к нему не как к материальному субстрату, а как к способности отражать внешний мир и воздействовать на него, выступает в значительной мере не природным, а социальным образованием, так как формируется в результате человеческой деятельности и в этом отношении также может быть назван искусственным. С другой стороны, интеллектуальные машины будут ни чем иным, как продолжением человека. По крайней мере, начальную структуру и начальный запас знаний, а также первоначальный курс обучения они получат от человека. Поэтому их интеллект будет в какой-то степени естественным. Наиболее впечатляющие последствия имело объединение вычислительных средств со средствами связи. Появление компьютерных сетей немедленно привело к качественному скачку в силе влияния “компьютерного фактора” сначала на производство, а потом и на всю общественную жизнь. Чтобы понять причину этого скачка, нужно вспомнить характеристические свойства сложных систем. Пока компьютеры существовали обособленно, они не образовывали системы, а влияние каждого из них было локальным, то есть распространялось в небольшой “окрестности” самого компьютера. Объединение нескольких компьютеров в систему, даже небольшую, например, в масштабах предприятия, обязательно приводит к появлению у системы в целом принципиально новых интегральных свойств. А глобальное объединение компьютеров (Интернет) приводит к глобализации влияния компьютеров. Нынешнее общество (по крайней мере, общество развитых стран) вполне можно охарактеризовать как информационное. Объединение человеческого разума с мощью глобальной информационной системы приводит к возникновению гиперинтеллекта. Отличие его от искусственного интеллекта состоит в том, что ИИ — это только соединение разума одного человека с вычислительными возможностями одного компьютера. Гиперинтеллект — это глобальная человеко-машинная система, по существу, единый планетарный разум. Роль процессов обмена информацией в развитии общества подчеркивает (и гиперболизирует) канадский социолог Л. Маклюэн (излагается по [А10]). Основной двигатель цивилизации он видит в развитии средств информационной связи. Маклюэн выделяет 4 этапа в развитии этих средств (и, соответственно, в развитии общества): 1) период от возникновения членораздельной речи до изобретения письменности; 2) эра письменности; 3) эра книгопечатания; 4) эра электронных средств коммуникации. По Маклюэну, изобретение письменности послужило толчком к бурному развитию Римской империи, а изобретение книгопечатания привело к распространению технических знаний и, следовательно, к возникновению промышленности и зарождению капиталистических отношений. Развитие электронных средств должно повести к повторению на новом уровне (в соответствии с законом отрицания отрицания) некоторых черт родоплеменного периода. Глобальные системы передачи информации должны сделать человечество единым. Оригинальную точку зрения на информатизацию и интернетизацию общества и на гиперинтеллект высказал М. Сухарев в статье [Б15]. Изложим кратко его основные тезисы. Во вводной части статьи приводятся соображения, подобные тем, которые излагались выше в настоящем реферате. Одним из неотъемлемых свойств известной нам части Вселенной является неуклонное усложнение природных объектов и систем. Так, последовательно возникали звезды, планеты, сложные молекулы, жизнь, разум. Эволюция Вселенной подчиняется закону, который можно сформулировать так: сложность самых сложных из имеющихся во Вселенной систем со временем повышается. В развитии общества видна еще одна закономерность: ускорение роста сложности со временем. Если экстраполировать эту тенденцию в будущее, то получится, что скорость развития общества должна увеличиться настолько, что общественно-экономические формации начнут сменяться каждые пятьдесят, десять и меньше лет, а человечество в течение 21 века объединится в сверхгосударство. Казалось бы, этот прогресс должен неизбежно замедлиться, так как качественно новые состояния общества не могут появляться каждый день, час, минуту. Но, отмечает далее автор статьи, появился фактор, заставляющий думать, что тенденция к ускорению усложнения общества сохранится, по крайней мере, в обозримое время. Это Интернет, или Сеть. Сеть, по мнению М. Сухарева, является определенным этапом в эволюции Вселенной и продолжает отмеченную тенденцию к самоусложнению материи. Далее М. Сухарев прослеживает развитие материальных носителей социальной информации (мозг, устная речь, книги, электронные носители). “…В уже давно протекающем процессе все большая часть мыслящего Духа Земли постепенно перемещается в искусственно созданные обиталища. Момент, когда уже меньшая часть этого Духа останется в головах людей, приближается с угрожающей скоростью… Процент искусственной сложности в совокупном носителе мирового Разума неизбежно превысит человеческую часть и будет продолжать расти со все возрастающей скоростью. ” Еще один источник скачка сложности в Интернете заключается в следующем. На ранних этапах компьютеризации, когда компьютеры не были связаны между собой, была необходимость в многократном дублировании информации. На каждом локальном компьютере имелась своя копия обрабатываемых данных. Интернет устраняет необходимость в дублировании ресурсов. Каждый компьютер в Сети играет все более уникальную роль и потому все более ценен для мыслящего Духа. Разделение ума (как продолжение разделения труда) обеспечит, таким образом, еще больший рост совокупной сложности глобального человеко-машинного конгломерата. Далее автор статьи указывает на то, что феномен Интернета как нельзя лучше соглясуется с теорией П. Тейяра де Шардена и является очередной ступенью на пути к точке Омега. Интернет предоставляет (или предоставит в ближайшем будущем) технические средства для “суперагрегации душ”. В статье М. Сухарева также кратко описаны те последствия, которые объединение человечества будет иметь в сфере экономики, науки и культуры. Общий вывод статьи состоит в том, что возникновение Интернета — закономерный этап в развитии Вселенной и шаг к слиянию человечества и образованию единого сверхразума. Еще одна проблема, порождаемая Интернетом, представляет собой продолжение вечной дилеммы “цивилизация или культура”. Еще Жан Жак Руссо утверждал, что развитие наук, искусств, технический прогресс, по существу, не приносят пользы человеку. Все блага цивилизации заключают в себе отрицательную сторону и часто оборачиваются против человека. Руссо рассматривал блага материальные и духовные вместе, по мнению Руссо, они равно враждебны человеку. По-другому данную проблему поставил Н. А. Бердяев в работе “Смысл истории. Опыт философии человеческой судьбы” (раздел “Воля к жизни и воля к культуре”). Цивилизация (все рациональное, денежное, техническое) — это смерть культуры (т. е. всего духовного). Интернет, величайшее достижение технической цивилизации, вполне мог бы стать не имеющим аналогов в истории средством распространения и утверждения высокой культуры. В Интернете и сейчас существуют виртуальные картинные галереи, библиотеки и фонотеки симфонической музыки. Но достаточно раз взглянуть на рейтинговые данные, чтобы обнаружить, что пользователи предпочитают сайты с порнографией. Тезис Бердяева приходит на ум сам собой. (Кстати, на фотографию, грамзапись и особенно кинематограф и телевидение также поначалу возлагались несбыточные надежды, как на средства для “просветления душ человеческих”). Интернет — универсальное средство, и способ его применения полностью зависит от того, кто его применяет. В настоящее время в Интернете действует принцип неограниченной свободы. Каждый может наполнять свой сайт любым содержанием. Каждый хочет, чтобы его сайт посещали чаще. Поэтому содержание Интернета “плетется в хвосте” у вкусов массы пользователей. В Интернете нет целостной политики формирования вкусов. По мнению автора реферата, это в немалой степени связано с причинами коммерческого характера. Пропаганда высокой культуры сама по себе коммерческой выгоды не приносит, а наоборот, требует вложений. Владелец же “массового” сайта получает немалую выгоду от размещения рекламы. Суть отмеченнуой проблемы можно иначе определить как слияние Интернета и масс-культуры. Примером может быть новый феномен — культура киберпанка, объединившая при помощи всемирной сети отбосы общества всего мира. В этой связи уместно сказать несколько слов о самом явлении массовизации. Массовая культура предлагает молодым людям определенные шаблоны, стандарты поведения. Парадоксально, но молодежные движения, возникавшие как протест против однообразия и косности общественной жизни, сами превращаются в еще более однообразные субкультуры с жесткими правилами поведения. В соответствии с принятым нами определением информации, массовизация, уничтожая разнообразие индивидуальностей, снижает информационое содержание общества и, в согласно информационному критерию развития систем, представляет собой регрессивное явление. Возникает такое впечатление, будто общество вырабатывает масс-культуру как средство “защиты” от возможного прорыва в новое качество. Вообще, все названные проблемы — это не проблемы информатизации, с прежде всего проблемы самого общества. Появление компьютеров и сетей только способствовало более отчетливому проявлению и обострению старых противоречий. Техника сама по себе не враждебна и не дружественна создавшему ее обществу. Техника — это орудие, и последствия ее использования целиком зависят от намерений того, кто ею владеет. Поэтому разрешение всех информационных противоречий должно, по убеждению автора реферата, начинаться с разрешения противоречий социально-экономических. Заключение
В реферате были рассмотрены вопросы, связанные с философским осмыслением понятия информации. На протяжении всего изложения упоминались различные определения этого понятия: сообщение, осведомление о положении дел; сведения о чем-либо, передаваемые людьми; уменьшение неопределенности выбора в результате получения сообщения; отрицательная энтропия; сигнал, взятый в единстве всех семиотических характеристик: синтаксической, семантической и прагматической; разновидность отражения, неразрывно связанная с процессами управления; аспект любых процессов отражения, связанный с передачей разнообразия. До возникновения кибернетики проблема информации в философии не только не решалась, но и не ставилась. Удовлетворительным считалось расплывчатое представление о ней, как о сведениях, которыми обмениваются люди в процессе своего общения. Следующим этапом стало построение количественной статистической теории, толчком к чему послужило интенсивное развитие радио- и телеграфной связи. Информация в этой теории представляется как снятая неопределенность. Объем понятия информации с возникновением статистического подхода расширился: были выявлены новые виды информации и информационных процессов — уже не только в человеческом обществе, но и в технических системах связи и управления, в коммуникации живых существ. Дальнейшее развитие понятия информации привело к еще большему расширению его объема. Это было вызвано как приложениемтеоретико-информационных методов в науках о неживой природе, так и логическим развитием самой теории — в особенности возникновением нестатистических (невероятностных) подходов. Объем понятия информации настолько расширился, что оно превратилось в общенаучную категорию. Поскольку познание природы информации выявляло все новые ее признаки, свойства, то, естественно, встал вопрос о наиболее общем определении этого понятия. В основу общего определения информации, которое, согласно данным литературных источников, является наиболее подходящим, положены два ее признака. Оказалось, что, во-первых, информация связана с разнообразием, различием, во-вторых, с отражением. В соответствии с этим ее можно определить в самом общем случае как отраженное разнообразие или дуальным образом — как разнообразностный компонент отражения. Информация — это разнообразие, которое один объект содержит о другом объекте (в процессе их взаимодействия). В частном случае это может быть и разнообразие, которое является результатом отражения объектом самого себя, то есть самоотражения. На основе приведенного определения можно сделать вывод, что информация есть всеобщее свойство материи. Ведь и разнообразие, и отражение — атрибуты материи. Понятие информации отражает как объективно-реальное, не зависящее от субъекта свойство объектов неживой и живой природы и общества, так и свойства познания, мышления. Разнообразие объективной реальности отражается сознанием общественного человека, и в этом смысле оно становится отраженным разнообразием, свойством сознания. Информация, таким образом, присуща как материальному, так и идеальному. Она применима и к характеристике материи, и к характеристике сознания. Если объективная (и потенциальная для субъекта) информация может считаться свойством материи, то идеальная, субъективная информация есть отражение объективной, материальной информации. Литература А. Книги
Амосов Н. М. Моделирование сложных систем. — К. : Наукова думка, 1968. Бриллюэн Л. Научная неопределенность и информация. — М. : Мир, 1966. Брюшинкин В. Н. Логика, мышление, информация. — Л. : ЛГУ, 1988. Жуков Н. И. Философские основания кибернетики. — М. : Знание, 1985. Краткий очерк истории философии. — М. : Мысль, 1981.
Пушкин Б. Г. , Урсул А. Д. Информатика, кибернетика, интеллект. — Кишинев: Штиинца, 1989. Туркин Ю. С. Теория систем. — М. , 1995.
Тюхтин В. С. Отражение, системы, кибернетика. — М. : Наука, 1972. Урсул А. Д. Информация. Методологические аспекты. — М. : Наука, 1971. Урсул А. Д. Отражение и информация. — М. : Мысль, 1973. Урсул А. Д. Природа информации. — М. : Политиздат, 1968.
Философский энциклопедический словарь. — М. : Советская энциклопедия, 1983. Янков М. Материя и информация. — М. : Прогресс, 1979. Б. Статьи
Акчурин И. А. Развитие кибернетики и диалектика. // Вопросы философии, 1965, № 7. Амосов Н. М. Моделирование информации и программ в сложных системах. // Вопросы философии, 1963, № 12. Бирюков Б. В. , Спиркин А. Г. Философские проблемы кибернетики // Вопросы философии, 1964, № 9. Быховский А. И. Живые организмы и антиэнтропийный эффект информации. // Вопросы философии, 1965, № 9. Вальт Л. О. Соотношение структуры и элементов // Вопросы философии, 1963, № 5. Винер Н. Наука и общество. // Вопросы философии, 1961, № 7. Глушков В. М. Гносеологическая природа информационного моделирования. // Вопросы философии, 1963, № 10. Глушков В. М. Мышление и кибернетика. // Вопросы философии, 1963, № 1. Жуков Н. И. Информация в свете ленинской теории отражения // Вопросы философии, 1963, № 11. Копнин П. В. Понятие мышления и кибернетика. // Вопросы философии, 1961, № 2. Корюкин В. И. Вероятность и информация. // Вопросы философии, 1965, № 8. Ляпунов А. А. , Китов А. И. Кибернетика в технике и экономике. // Вопросы философии, 1961, № 9. Маркарян Э. С. Человеческое общество как особый тип организации // Вопросы философии, 1971, № 10. Петрушенко Л. А. Взаимосвязь информации и системы. // Вопросы философии, 1964, № 2. Сухарев М. Взрыв сложности. // КомпьюТерра, 1998, № 43.
Тарасенко Ф. П. К определению понятия “информация” в кибернетике. // Вопросы философии, 1963, № 4. Украинцев Б. С. Информация и отражение // Вопросы философии, 1963, № 2. Урсул А. Д. О природе информации. // Вопросы философии, 1965, № 3. Эшби У. Росс. Системы и информация. // Вопросы философии, 1964, № 3. http: //www. synth. zt. ua (Лаборатория синтеза знаний, Житомир)