<<
>>

§ 5. Сложность, упорядоченность; организация, информация

Понятие сложности (или сложного) широко употребляется как в естественнонаучной, так и в философской литературе. Ме­жду тем это понятие еще не получило достаточно четкого опре­деления и до последнего времени даже не являлось предметом специального исследования в общетеоретическом плане.

Что же следует понимать под сложным? Наиболее распространено по­нимание сложного как суммы частей, элементов. И. Б. Новик пишет: «Сложность прежде всего характеризуется как сложен­ность из элементов»[26]. И далее он различает две модификации та­кой сложности: аддитивная сложенность (когда свойства сово­купности сводятся к сумме свойств элементов) и неаддитивная сложенность - целостность (когда свойства совокупности не сво­дятся к сумме свойств элементов).

Подход к сложности как к сумме берет начало из матема­тики (хотя там рассматриваются и неаддитивные свойства ма­тематических структур). Нетрудно видеть, что в этом случае абстрагируются от качества составляющих совокупность эле­ментов, - последние мыслятся как однородные (во всяком слу­чае не предполагается их качественное отличие). Такое пони­мание сложности носит преимущественно количественный ха­рактер и не случайно в математике понятие количества рас­сматривается прежде всего как число элементов множества. Достаточно лишь взаимооднозначного соответствия между элементами двух множеств, для того чтобы сделать вывод об их одинаковой сложности (мощности). С этой точки зрения одина­ково сложны совокупности из пяти искусственных спутников земли и пяти карандашей (ибо каждому спутнику соответствует карандаш, и наоборот).

Понятие неаддитивной сложности связано с учетом качест­венного отличия составляющих совокупность элементов, их вза­имных отношений. Можно предполагать, что эта точка зрения на природу сложного берет свое начало из химии. В химии под сложным веществом понимается такое, которое состоит из раз­личных качественно разнородных химических элементов.

Наличие двух видов, модификаций сложного ставит про­блему их объединения на общей основе. Необходимость такого объединения вытекает даже из попыток количественного изме­рения сложности объектов.

Так, степень сложности объектов, состоящих только из од­нородных элементов или только из разнородных элементов, лег­ко может быть определена сравнением числа элементов этих объектов, если они относятся к одному и тому же типу (путем установления взаимнооднозначного соответствия между эле­ментами). Но как сравнивать между собой объекты, где одно - временно могут быть и одинаковые, и различные элементы при разном количестве и тех и других? Каким образом можно изме­рить степень относительной сложности таких комбинирован­ных объектов?

Оказывается, формулы количества информации позволяют установить сложность объектов в количественном и в опреде­ленной степени в качественном отношении [27]. Наиболее отчет­ливо это можно показать на примере статистической теории информации.

Если предположить, что в формуле Шеннона вероятности равны, то I = log p. Эта формула определяет логарифмическую меру количественной сложности статистических совокупностей.

Но формула Шеннона позволяет в некоторой степени учи­тывать и качественную сторону сложности. Дело в том, что раз­личные в качественном отношении элементы можно обозначать (кодировать) различными вероятностями. Тогда статистические совокупности, состоящие из одинакового количества элементов, могут иметь различную сложность, которая зависит уже не от количества элементов (случайных событий), а от распределения, различия их вероятностей.

Методы теории информации позволяют определять слож­ность физических объектов (динамических систем, квантовых ансамблей и т. д.), химических веществ. Наиболее широко клас­сическая теория информации проникла в биологический ком - плекс наук, где в первом приближении была оценена сложность различных составляющих организма на уровне молекул, клеток, органов. Удалось оценить сложность организмов (от однокле­точных до человека).

Методами теории информации можно измерять и сложность ряда общественных явлений. Французский социолог А. Моль, в частности, показывает, как можно определять сложность соци­альных групп при помощи упомянутой формулы Шеннона [28]. Так, всякая замкнутая общественная группа (учреждение, предпри­ятие, организация) состоит из определенного числа индивидуу­мов, принадлежащих к различным категориям. Под категориями индивидуумов понимается выделение их по социальным, про­фессиональным и иным признакам (управляющие, рабочие, ин­женеры и т. д.). Методами статистической теории информации определяется сложность структуры учреждения, предприятия и т. д., характеризуемая многообразием возможных положений ин­дивидуума в группе и информацией, которая необходима, чтобы указать положение, в котором находится индивидуум.

Вполне естественно, что теория информации, впервые наи­более широко использованная в теории связи и других техниче­ских дисциплинах, может быть применена и для оценки сложно - сти технических, в том числе и некибернетических, устройств (например, легкового автомобиля).

Важность оценки сложности систем и изучения сложных

систем возросла с возникновением и развитием кибернетики,

*

предметом которой служат сложные динамические системы .

Оценка сложности самовоспроизводящей системы имеет большое значение для развития теории автоматов. Уже в осново­полагающей работе Дж. фон Неймана по теории автоматов [29] ста­вится эта проблема. Он отмечает, в частности, что сложность со­временных технических устройств (которая оценивается им по количеству элементов) на много порядков ниже, чем, скажем, ор­ганизма, мозга человека и т. д. Это обстоятельство важно учиты­вать при создании различного рода автоматов, имитирующих оп­ределенные функции живых существ и интеллектуальные спо­собности человека.

Вообще же поиски методов оценки сложности объектов представляют сейчас большой интерес для биологов, психологов и для ученых других специальностей.

Возьмем для примера про­блему происхождения жизни. Какой сложностью должна обла­дать система по отношению к окружающим условиям, чтобы ее можно было назвать живой? Предполагается, что первоначально возникшая на земле самовоспроизводящая молекула должна со­держать не менее 200 битов относительно окружающей среды, т. е. относительно более простых химических соединений [30].

Проблема сложности чрезвычайно актуальна и в математике (особенно в связи с развитием вычислительных машин). Метода­ми теории информации оценивается, в частности, сложность ма­тематических таблиц [31]. Эта теория может быть использована и в лингвистике (оценка сложности слов, текстов), в логике (оценка сложности понятий, суждений, теорий и т. д.), в теории познания (оценка сложности системы научного знания) и т. д.

Короче говоря, при помощи теории информации в настоя­щее время можно измерять степень сложности (и ее различные производные) объектов и явлений неживой и живой природы, общества, мышления.

Не следует, однако, представлять, будто для оценки сложно - сти используется лишь статистическая теория информации. Так, один из самых новейших подходов в теории информации - алго­ритмический, развиваемый А. Н. Колмогоровым, исходит из опре­деления количества информации как сложности одного индивиду­ального объекта относительно другого. При оценке сложности форм логического познания могут быть использованы методы се­мантической теории информации.

Важно отметить, что представление о количестве информа­ции как о мере сложности объектов не противоречит представле­нию о нем как о количестве различия, разнообразия. Трактовка информации на основе категории различия является более общей, чем ее понимание как сложности. Для понятия сложности харак­терно лишь отношение тождества (принадлежности элементов к данному множеству) данной совокупности и отношения различия между элементами (качественного или количественного). Но это понятие не учитывает порядка расположения элементов во множе­стве, например, в пространственном, временном или ином отно­шении.

В том случае, когда отношения порядка (отношения пред­шествования, отношения «больше» или «меньше» и т. д.) налицо, то это обстоятельство делает множество упорядоченным[32].

Методы теории информации позволяют учитывать и отно­шения порядка, так как по существу это определенный вид раз­личия (разнообразия). Не случайно в большинстве работ, где в той или иной степени делается попытка раскрыть смысл понятия информации, ее связывают с упорядоченностью.

Понятия сложности и упорядоченности характеризуют, та­ким образом, элементы множества и простейшие их отношения (отношения качественного и количественного различия, порядка). Однако эти понятия не учитывают всего разнообразия взаимосвя­зей и других отношений между элементами множества. Другими словами, для того чтобы установить сложность и упорядоченность множества, не имеет значения - находятся ли его элементы во взаимосвязи, взаимодействии или не находятся. Разнообразие взаимосвязей, взаимоотношений элементов во множестве характе­ризуется, на наш взгляд, другим понятием - организацией, родст­венным понятиям сложности и упорядоченности. При этом поня­тие информации объемлет все упомянутые типы разнообразия: и разнообразие элементов (сложность), и разнообразие отношений порядка (упорядоченность), и разнообразие любых отношений и взаимосвязей элементов во множестве (организация). Отсюда яс­но, что оно является более широким, чем понятия сложности, упо­рядоченности или организации.

На связь информации с упорядоченностью и организацией указал еще Н. Винер [33]. Некоторые авторы употребляют понятия упорядоченности и организации как равнозначные [34]. Однако, на наш взгляд, в понятии организации, в отличие от понятия упоря­доченности, центральным моментом выступает представление о связи. Связь необходимо предполагает наличие того, что связыва­ется, т. е. элементов, частей. Значит, организованное множество обязательно должно быть сложным. Кроме того, связь обязатель­но включает в себя и отношение порядка, ибо связь невозможна без этого отношения, тогда как последнее без связи возможно.

На значение связи, зависимости для понятия организации об­ращает внимание У Р. Эшби [35]. Дж. Ротштейн [36] также отмечает, что понятие организации необходимо включает в себя связь, взаи­модействие частей целого. Где нет этой связи, взаимодействия, там нет и организации, а имеется просто совокупность индивидуаль­ных элементов, изолированных друг от друга. Итак, понятие орга­низации необходимо предполагает наличие элементов множества в

их взаимосвязях и отношениях, а следовательно, включает в себя

****

такие свойства множества, как сложность и упорядоченность [37].

Если разнообразие элементов множества определяет сте­пень его сложности, а разнообразие отношений порядка - сте­пень его упорядоченности, то разнообразие любых типов отно­шений и любых типов связей характеризует степень организации совокупности. Степень организации может быть определена как нулевая, если элементы совокупности не находятся между собой ни в каких связях и отношениях. Нетрудно видеть, что таких объектов внешнего мира, элементы которых не находились бы в связи и отношениях, не существует. В любом объекте действи­тельности любые два элемента каким-то образом всегда взаимо­связаны. Однако они могут не находиться в каких-либо данных связях и отношениях (скажем, механических или электромаг­нитных). С этой точки зрения, любые объекты во Вселенной имеют организацию, однако в том или ином конкретном отноше­нии организация может отсутствовать или количественно изме­ряться различной степенью.

Рассмотрим некоторую совокупность из конечного числа элементов. Если в этой совокупности хотя бы два элемента нахо­дятся во взаимосвязи и взаимных отношениях, то степень орга­низации такой совокупности отлична от нулевой. Чем больше элементов в совокупности вступает во взаимосвязь (отношения) с другими элементами, тем выше становится степень организа­ции совокупности. И наконец, степень организации объекта на данном уровне оказывается максимальной, когда любой элемент его взаимодействует (находится в отношении) с любым другим элементом. В соответствии с этим совокупности могут быть не­организованными, частично организованными и полностью ор­ганизованными (в том или ином отношении).

В количественном отношении степень организации может измеряться формулами теории информации. Однако для этой це­ли можно использовать не всякую формулу. Это относится, в ча­стности, к известной формуле Шеннона (абсолютной негэнтро- пии). В самом деле, максимальная степень организации достига­ется при максимальной взаимозависимости составляющих дан­ного объекта. Для статистической совокупности в этом случае формула Шеннона дала бы минимальное количество информа­ции, а если бы события совокупности оказались независимыми друг от друга - максимальное количество информации, так как увеличение статистической связи между составляющими систе­мы ведет к уменьшению количества информации.

Более адекватно степень организации объектов измеряется с помощью формулы относительной негэнтропии, предложенной

К. Шенноном для определения количества информации непре­рывных совокупностей.

Таким образом, теория информации может послужить сво­его рода базой для исчисления организации. Как отмечает К. М. Хайлов, «приняв за единицу организации интеграцию (связь) двух элементов системы, можно показать, что она отвеча­ет единице информации в двоичной системе исчисления» [38].

Полное же измерение степени организации требует не одной простой формулы количества информации, а сложной формулы, где каждый член учитывает свой вид разнообразия, например, первый - разнообразие элементов, второй - раз­нообразие связей, третий - разнообразие отношений поряд­ка, четвертый - другой класс отношений (топологических, функциональных и т. д.). Следует отметить, что такие фор­мулы уже существуют (работы Э. Тракко, М. и М. Е. Валенти- нуцци и др.).

Еще до создания теории информации полагали, что можно измерить степень упорядоченности и организации при помощи методов термодинамической энтропии. Однако термодинамиче­ская энтропия учитывает лишь один класс разнообразия - разно­образие, связанное с тепловым движением. Поэтому неправиль­но связывать степень организации и даже степень упорядочен­ности объектов высоких ступеней развития лишь с термодина­мической энтропией. Как отмечает, например, М. Дж. Клейн, «степень порядка в системе, которая измеряется при помощи эн­тропии (низкая энтропия соответствует высокому порядку), не то же самое, что степень организации систем в том смысле, в кото - ром он употребляется биологами» [39].

В процессе прогрессивного развития материальных систем одни классы разнообразия могут сужаться, другие увеличивать­ся. Но общее количество разнообразия всех классов на прогрес­сивной линии развития, несомненно, растет. И это увеличение количества разнообразия не может быть учтено лишь методами термодинамической энтропии. Уже в области биологических яв­лений представления термодинамики оказываются по меньшей мере ограниченными, а в области общественных явлений вооб­ще неприменимыми. Между тем методы теории информации по­зволяют определять степень упорядоченности (или сложности), организации любых объектов и явлений.

Упорядоченность, организация реальных объектов может быть различных видов. В зависимости от отношений порядка, связи элементов системы подчиняются различным закономерно­стям. Очевидно, что для оценок упорядоченности и организации разных объектов должны выбираться различные теории инфор­мации. Поэтому сравнение степени организации, упорядоченно­сти объектов, подчиняющихся качественно различным законо­мерностям, строго говоря, возможно лишь в определенном диа­пазоне их качественных изменений. Однако из этого не следует, что в принципе нельзя сравнивать и далекие друг от друга объек­ты по степени организации, упорядоченности. Ведь мы можем выделить некоторый класс разнообразия, общий для рассматри­ваемых качественно различных объектов, и применить к ним теоретико-информационный метод.

Необходимо указывать не только класс разнообразия, по которому сравниваются между собой объекты, но и начало от­счета этого разнообразия, начальный уровень различия. Напри­мер, в организме количество информации окажется существен­но различным в зависимости от того, на каком уровне ведется отсчет - на уровне органов, клеток, молекул, атомов или эле­ментарных частиц.

Рассмотренный выше информационный количественный критерий оказывается достаточно универсальным, если исходить из весьма общего понимания информации как разнообразия, а само разнообразие понимать не упрощенно, (скажем, лишь как разнообразие элементов), но и как разнообразие связей, отноше­ний, функций, свойств и т. д. Универсальность рассмотренного информационного критерия сказывается в том, что он позволяет измерять степень организации всех объектов неживой и живой природы, общества, познания.

Однако, говоря о применении методов теории информации к исчислению организации, было бы неправильным ограничи­ваться только количественным аспектом информации. Ведь тео­рия информации развивается и в качественном аспекте, и сюда мы относили, в частности, различные варианты семантических и прагматических концепций информации.

Так, ценность информации оказывается важной характери­стикой для живых и вообще кибернетических систем, так как она связана с их функционированием, самоуправлением или управ­лением. В кибернетике считается установленным, что системе для выполнения некоторой функции, связанной с сохранением, устойчивостью, необходимо иметь определенное количество внутреннего разнообразия (закон необходимого разнообразия, сформулированный У. Р. Эшби).

Ценность информации оказывается тем большей, чем меньшее количество разнообразия способно выполнять задан­ную функцию. Прагматический критерий информации в некото­ром отношении противоположен количественному критерию, однако лишь тогда, когда сравниваются системы, имеющие раз­личное внутреннее разнообразие и выполняющие одну и ту же функцию. Если же сравниваются системы, выполняющие раз­личные функции, то ценностный критерий уже оказывается ма­лопригодным, здесь для оценки степени организации по- прежнему можно использовать количество информации.

Наконец, в ряде социальных, теоретико-познавательных и логических систем может быть использован и семантический информационный критерий степени организации. Сейчас мето­ды семантической теории информации применяются к измере­нию в основном смысла простейших форм научного познания - суждений. Однако уже делаются попытки более широко исполь­зовать эти методы: измерять с их помощью и довольно сложные лингвистические, логические, семиотические и др. системы. По- видимому, в таких системах следует применять не один какой- либо критерий, а все информационные критерии в комплексе. В некоторой степени этой цели отвечает семиотический инфор­мационный критерий, воплощающий в себе единство количест - венного (синтаксического), прагматического и семантического критериев. Можно думать, что и этот комплексный информаци­онный критерий не является наиболее адекватным, так как сей­час многие свойства информации еще не изучены.

Предлагаемые здесь информационные критерии в теорети­ко-познавательном плане следует рассматривать не как принци­пиально различные критерии, а как взаимосвязанные стороны единого информационного критерия, который может быть выяв­лен во всей своей полноте лишь в ходе дальнейшего развития науки. Применение теоретико-информационного метода к выяв­лению степени организации, упорядоченности сделает возмож­ной более точную оценку в различных отраслях знания качест­венной специфики объектов, находящихся на разных уровнях развития материи.

<< | >>
Источник: Урсул, А. Д.. Природа информации: философский очерк /А. Д. Урсул; Челяб. гос. акад. культуры и искусств; Науч.-образоват. центр «Информационное общество»; Рос. гос. торгово-эконом. ун-т; Центр исслед. глоб. процессов и устойчивого развития. - 2-е изд. - Челя­бинск,2010. - 231 с.. 2010

Еще по теме § 5. Сложность, упорядоченность; организация, информация: