<<
>>

§ 10. Закон, причинность и информация

Понятие закона отражает общие, устойчивые связи и отно­шения между явлениями (или его частями). Закон в определенном отношении есть структура данного явления (его частей или клас­са явлений), тогда как явление есть то, что мы называли системой.

Поскольку закон - это структура, а последняя есть нечто неизменное, остающееся в системе при всех ее изменениях, то любой закон является ограничением разнообразия. Проблема связи закона как инварианта с ограничением разнообразия была рассмотрена Эшби. Он отмечает, что наличие инварианта в неко­тором множестве явлений свидетельствует о том, что осуществ­ляется не вся область разнообразия, а лишь его часть.

Можно привести множество примеров, подтверждающих мысль Эшби. Законы классической механики являются ограни­чением разнообразия, ибо устанавливают определенную связь между механическими характеристиками тел (между ускорения­ми, скоростями, массами, силами и т. д.), но исключают другие, мыслимо возможные.

Любой закон есть ограничение разнообразия в том смысле, что явление не может полностью определяться законом. Оно подчиняется не одному какому-либо закону, а совокупности (причем бесконечной) законов. В силу этого закон содержит меньшее количество разнообразия, чем явление.

В то же время известно, что абстракция закона природы от­ражает природу глубже, вернее, полнее. Это положение диалек­тики с теоретико-информационной точки зрения, в частности, означает, что закон в определенном аспекте имеет большее ин­формационное содержание, чем явление, отражаемое нашими ощущениями, восприятиями, представлениями.

формационное содержание, чем явление, отражаемое нашими ощущениями, восприятиями, представлениями.

В процессе отражения явлений органами чувств последние существенно огрубляют, ограничивают разнообразие объектив­но существующих систем. Бесконечное разнообразие явлений нашими органами чувств отражается в виде конечного разнооб­разия.

Например, рассматривая невооруженным глазом стол, мы заметим только его макроскопическое строение, но не увидим микроструктуру. Следовательно, часть информации теряется при чувственном отражении. Однако мысленно, используя зна­ние законов строения вещества, мы совершенно точно можем сказать, что стол состоит из молекул, атомов, элементарных частиц. Эта информация непосредственно не заключена в чув­ственном образе, она появилась в результате абстрактного мышления, в теориях строения вещества. Поэтому абстракция закона - это не простое ограничение эмпирического разнообра­зия. Смысл абстракции закона заключается в основном в том, что на уровне теоретического мышления происходит отвлечение от некоторых сторон чувственного разнообразия явлений, для того чтобы расширить разнообразие, которое непосредственно недоступно чувственному познанию. Поэтому информационное содержание абстракций законов, как правило, больше, чем в чувственных образах.

Можно ли измерить количество информации, заключен­ное в законе науки? Эта проблема решается пока что в рамках идей статистической теории информации. Специально иссле­дованием информационных количественных характеристик за­конов занимался Л. Бриллюэн, который наметил схему опреде­ления информационного содержания в эмпирических и теоре­тических законах. По Бриллюэну, количество информации, ко - торое содержится в том или ином эмпирическом количествен - ном законе, является функцией отношения числа возможных исходов (или высказанных на основе этого закона числа гипо­тез о тех или иных наблюдаемых явлениях) до эксперимента (ро) и после него (рі) [72].

Весьма интересной проблемой является сравнение различ­ных законов по их информационным характеристикам: количе - ству информации, ее ценности и т. д. Рассмотрим, например, как различаются по количественным информационным характери­стикам законы физики, подчиняющиеся так называемому прин­ципу соответствия. Такими законами, как известно, являются за­коны классической, релятивистской механики и теории гравита­ции А.

Эйнштейна (общей теории относительности), с одной стороны, или же законы классической и квантовой механики, с другой стороны.

Законы общей теории относительности переходят в законы специальной теории относительности при отсутствии тяготею­щих масс. Законы релятивистской механики переходят в законы классической механики при малых по сравнению со скоростью света скоростях движения. Квантовая механика отражает движе­ние микрообъектов с очень малой (по сравнению с макрообъек­тами) массой и при относительно больших скоростях движения - в этих условиях необходимо учитывать постоянную Планка. Од­нако если эту постоянную приравнять к нулю (то есть перейти к большим массам), то законы квантовой механики перейдут в за­коны классической механики.

Если переходят от законов более общей теории к законам менее общей (частной) теории, то отвлекаются от некоторых различий (тяготения, постоянной Планка и т. д.). Правда, при этом может происходить не только ограничение разнообразия, но и увеличение некоторых классов разнообразия (вводимых поня­тий, методов и т. д.).

Информационное содержание законов физики, подчиняю­щихся принципу соответствия, можно определить, если учесть, что начальная степень неопределенности (и соответственно сте­пень предсказываемой точности величин) каждой последующей теории совпадает с конечной степенью неопределенности (и сте­пенью предсказываемой точности величин) каждой предшест­вующей теории. Но конечная степень неопределенности после­дующей теории всегда меньше степени начальной ее неопреде­ленности.

Предположим, что специальную теорию относительности (релятивистскую механику) мы рассматриваем в качестве неко­торого сообщения. До получения этого сообщения, т. е. до соз­дания теории относительности

А. Эйнштейном, существовала некоторая степень неопре­деленности точности предсказываемых механикой Ньютона ве­личин - Н кл. м. После получения сообщения эта неопределен­ность уменьшилась до Н сто, так как специальная теория относи­тельности более точно определяет соответствующие механиче­ские параметры.

Количество информации, получаемое в резуль­тате создания специальной теории относительности, равно I = Н кл. м. - Н сто. Если в качестве получаемого сообщения рас­сматривать квантовую механику, то количество информации, приобретаемое человечеством в результате ее создания, равно I = Н кл. м. - Н кв. м.

Нам могут заметить, что почти все ранее высказанные со­ображения вполне очевидны и без идей теории информации. Ра­зумеется, это так. Мы уже отмечали, в чем польза теории ин­формации - именно в возможности выражения количественного аспекта всего того, что дается в описательной, качественной форме. Благодаря теории информации мы сможем точно опреде­лить, какое количество информации содержится в законах спе­циальной теории относительности, общей теории относительно - сти, в квантовой теории и т. д.

А это необходимо, например, для развития теории и техни­ки научной информации. Ведь законы представляют часть науч­ной информации, которую нужно хранить, передавать, перераба­тывать. А для этого важно знать, какое количество информации они содержат. Можно представить еще более далекое будущее, когда человечество станет передавать свои научные знания дру­гой, внеземной цивилизации. Естественно, что межзвездные ин­формационные связи уместны лишь в том случае, если удастся передавать научную информацию. Возможно, именно тогда ста­нет очевидным, что современные попытки определения инфор­мационного содержания законов науки - это начало очень важ­ных исследований.

К ранее рассмотренным информационным характеристикам не сводятся все информационные характеристики законов. Ведь законы могут отражать различные явления, различные стороны явлений и т. д. Поэтому проблема сопоставления информацион­ных количественных характеристик законов пока решается лишь в самом первом приближении.

Особый интерес представляет информационное соотно­шение законов диалектического материализма и законов част­ных наук. Материалистическая диалектика дает частным нау­кам общие методы познания и преобразования действительно­сти.

Методологическая роль философских положений состоит в том, что они, с одной стороны, ограничивают область научно­го поиска (отвергая, например, гипотезы о сверхъестественных силах), показывают, где не следует искать ответа на поставлен­ные вопросы. С другой стороны, положения материалистиче­ской диалектики дают ученому общие правильные пути иссле­дования, предостерегая от односторонности при изучении яв­лений, от субъективизма и произвола. Они снабжают ученого необходимой начальной информацией, благодаря которой ста­новится возможным наиболее эффективно проникать в тайны природы.

Из весьма общих соображений о том, что правильный об­щий метод уже ограничивает возможное разнообразие путей ис­следования, вытекает, что общие, универсальные принципы, за­коны и категории содержат для исследователя определенное ко­личество информации.

Дело, однако, не только в количестве информации, содер­жащейся в общих законах. Ясно, что, например, биологу мало что может дать, скажем, знание общей теории относительно - сти, хотя в ней содержится значительное количество информа­ции. Для биолога в этом смысле информация, содержащаяся в общей теории относительности, не является ценной. В прин­ципе ценность информации различна для различных ученых, их коллективов, научных учреждений и т. д. Ведь ценность на­учной информации зависит не только от самой информации, но и от целей, которые стоят перед ее приемником. Поэтому коли - чество научной информации отнюдь не является важнейшей информационной характеристикой законов науки. Общие зако­ны, если они даже содержат небольшое количество информа­ции для решения данной конкретной задачи по сравнению с частными законами, оказываются более ценными для того или иного ученого, чем законы частной науки, которые лежат дале­ко за пределами его интересов. Возникает проблема исследова­ния не только количественных информационных характеристик законов науки, но и качественных, в частности семантических и прагматических, поскольку они играют важную роль в разви­тии науки.

Остановимся далее на анализе двух важнейших типов за­конов (закономерностей) - динамических и статистических. Эти законы различаются по типам причинных связей. Поэтому нам предстоит выявить также связь категорий причинности и информации. Отметим, что изучение связи информации и при­чинности уже начато в философской литературе. Ряд интерес­ных мыслей по этому вопросу был высказан И. Н. Бродским,

Н. Мусабаевой, А. А. Марковым, В. Краевским, Б. С. Украин-

*

цевым и др.

А. А. Макаров предложил определять кибернетику как нау­ку о причинных сетях, полагая при этом, что понятие информа­ции можно сформулировать исходя из концепции причинной связи.

Событие А содержит информацию о событии В в силу со­вокупности законов природы М, если наличие В может быть вы­ведено из наличия А с помощью М. Исходя из такого определе­ния, - пишет А. А. Марков, мы можем сказать, что расположение Солнца, Земли и Луны в настоящий момент содержит информа­цию о будущем солнечном затмении согласно законам механики, оптики и закону всемирного тяготения. Событие А содержит ин­формацию о событии В в силу совокупности законов М, если А есть причина В. «... Причина, - заключает А. А. Марков, - со­держит информацию о следствии» [73].

Наиболее простое причинное отношение - это когда между причиной и следствием существует взаимооднозначная связь.

При однозначной причинной связи речь может идти о пол­ной передаче информации от причины к следствию. В философ­ской литературе в этом случае чаще принято говорить о передаче структуры причины к следствию. Несомненно, воспроизведение структуры причины в структуре следствия - важный, но все же, частный случай полной передачи информации от причины к следствию. Этот процесс, например, имеет место в механиче­ских цепях причинности.

Именно из законов механики Ньютона следует, что за явле­нием А всегда следует явление В. Поэтому предполагается, что знание законов и условий явления А приводит к знанию законов и условий явления В. Другими словами, в случае классической механики при переходе от явления А к явлению В не происходит потери или увеличения количества информации - в информаци­онном отношении явления А и В симметричны. Это можно выра­зить как равенство информационных содержаний причины и следствия: I пр = I сл, или 1А = 1В. Подобный информационный смысл в механическую причинность вкладывал еще Лаплас, ко - гда предложил идею своего «демона», который, зная все причи­ны, мог бы предугадать все следствия. Поскольку причинные цепи бесконечны, воображаемый демон Лапласа мог предугадать бесконечное будущее. Действительно, по одному звену одно­значной причинной связи можно определить все остальные зве­нья, ибо в них содержится одинаковое количество информации.

Дальнейшее развитие науки выявило недостаточность представлений о причинной связи как взаимооднозначном соот­ветствии причины и следствия. Появилась концепция много­значной причинности, основанной на статистических законо­мерностях. Примером последних являются законы статистиче­ской физики, квантовой механики. В упомянутых науках исполь­зуются теоретико-вероятностные методы.

В первой главе мы говорили о возможности определения понятия вероятности на основе понятия информации. Имеет ли эта первичность информации по отношению к вероятности толь­ко логико-гносеологический смысл, или же эта первичность объ­ективно реальна? Можем ли мы, например, сказать, что элемен­тарные частицы именно потому ведут себя согласно статистиче­ским законам, что они недостаточно «информированы» друг о друге, об окружающей среде? На первый взгляд кажется, что это довольно экстравагантная постановка вопроса. Однако мы пояс­ним, что в данном случае не имеется в виду использование ин­формации микрообъектами. Предполагается лишь, что сущест­вуют различные способы передачи информации от одного объек­та к другому (а передача информации присуща и системам нежи­вой природы). В одном случае считается, что информация пере­дается от одного объекта ко второму полностью, в другом случае (как это имеет место в микромире) - не полностью.

Можно, по-видимому, предположить, что информационные свойства материальных систем являются более общими свойст­вами, чем те, которые характеризуются или только динамиче­скими, или же статистическими закономерностями. Ранее было показано, что и динамические и статистические системы в мате­матическом отношении являются частными случаями более об­щих - информационных систем.

Динамическими закономерностями имеет смысл называть такие информационные закономерности, когда причина полно­стью содержит информацию о следствии, и наоборот. Статисти­ческими закономерностями будем называть такие информацион­ные закономерности, когда причина не содержит всю информа­цию о следствии, и наоборот.

Важно отметить, что в случаях многозначной причинной связи существует еще одна асимметрия причины и следствия, вытекающая из различия их информационных содержаний (вре­менная же асимметрия причины и следствия существует во всех видах причинной связи). Следовательно, в случаях многозначной причинной связи невозможно точное воспроизведение структу­ры причины в структуре следствия.

Поэтому, если нам известна некоторая система законов М и далее известно, что событие А есть причина события В, то из этого еще не следует, что событие А содержит всю информацию о событии В. В случае многозначной причинной связи мы можем говорить о том, что событие А (причина) содержит лишь часть информации о событии В (следствии). Отсюда вытекает вывод о том, что лапласовский «демон», который, зная все в данный мо­мент, мог бы предугадать состояние мира на сколь угодно дале­кое будущее, невозможен.

Теоретико-информационные методы существенно разви­лись на базе вероятностных представлений. На основе этих же представлений были развиты и идеи статистической причинно­сти, которая в определенном аспекте обобщила механическое понимание причинности. Как было показано ранее, информаци­онные идеи оказываются более общими, чем вероятностно­статистические. Поэтому надо думать, что статистическая форма причинности - не самая общая. Мы можем строить модели при­чинности на базе понятия информации и распространить их на более широкий круг явлений, чем статистические и динамиче­ские. Вполне возможно существование такой формы причинной

*

связи, как топологическая , которая может оказаться весьма по­лезной в развитии современной теории элементарных частиц.

Исходя из связи понятий информации и причинности, мож­но также предположить, что появление концепции многозначной причинно-следственной связи вызывается не только потребно­стями обобщения вероятностно-статистических представлений, но и необходимостью описания (объяснения, предвидения) про­цессов развития и поведения весьма сложных систем (не обяза­тельно вероятностных). Ведь классическая механика, на базе ко - торой оформилось понятие однозначной причинной связи, опи­сывала лишь движение систем без изменения их внутреннего разнообразия. Поскольку в следствии воспроизводится вся ин­формация, заключенная в причине, то такие причинно-следствен­ные связи не изучались с точки зрения информационных характе­ристик, ибо количество информации оставалось неизменным.

С переходом к изучению процессов развития необходимо было изменить сложившиеся представления о причинности. Это изменение совпало как по времени, так и по содержанию с вне­дрением вероятностных методов. Вместе с тем нам думается, что исследование процессов развития не только статистическими методами, но и любыми другими также неизбежно потребовало бы изменения наших представлений о причинности и привело бы к пониманию того, что причина не всегда может полностью содержать информацию о следствии, что между причиной и следствием не обязательно должно быть взаимооднозначное со­ответствие. Такое многозначное соответствие между причиной и следствием всегда сопровождает процессы развития, так и пове­дение сложных самоуправляемых систем [74].

Например, в процессах прогрессивного развития нас инте­ресует, как из относительно простого появляется более сложное. И здесь уже объективно неприменима концепция лапласовского, механического детерминизма. Ведь в таком случае невозможно было ответить на вопрос, как из простого возникает нечто слож­ное. Невозможность причинного объяснения процессов развития с позиций механистического понимания причинности вызвала к жизни виталистические концепции, стремящиеся объяснить процессы развития в мире живой природы с позиций мистиче­ской жизненной силы. Расширение же понятия причинности, по­нимание того, что причина не может содержать в себе всю ин­формацию о следствии, помогло распространить принцип детер­минизма и на процессы развития.

Изучение процессов развития сопряжено с изучением все более сложных систем. Для этого необходимо отвлечься от ин­дивидуальных причинно-следственных связей, ибо их изучение мало что дает для познания целого как системы сложных и пере­плетающихся причинно-следственных связей. Так возник стати­стический метод, который хотя и упрощал картину переплетения причинно-следственных связей, но в то же время давал адекват­ный математический аппарат для отражения количественных ха­рактеристик, например, термодинамических и других случайных физических процессов.

Понятие причины, которое рассматривалось выше, явля­ется упрощенным, ибо обращается внимание лишь на односто - роннее воздействие одного объекта на другой, производящее из­менение последнего. Такое понимание причины широко исполь­зуется во многих конкретных науках и исторически оправданно. Однако это не самое общее понимание причины.

Понятие причины, как и другие понятия, также развивает­ся. И это развитие понятия причины связано не только с изуче­нием статистических закономерностей или процессов развития. Как показано в литературе [75], в современном понимании причина выступает не как одностороннее воздействие одного предмета на другой, а как взаимодействие материальных систем (или же их элементов, частей), следствие же понимается как изменение, на­ступающее в упомянутых системах (или ясе их элементах, час­тях) в результате взаимодействия. Разумеется, и к исследованию такого более адекватного понимания причины и следствия мож­но применить теоретико-информационные методы, используя, в частности, понятие информации как некоторой характеристики отношения, связи двух (или нескольких) объектов.

<< | >>
Источник: Урсул, А. Д.. Природа информации: философский очерк /А. Д. Урсул; Челяб. гос. акад. культуры и искусств; Науч.-образоват. центр «Информационное общество»; Рос. гос. торгово-эконом. ун-т; Центр исслед. глоб. процессов и устойчивого развития. - 2-е изд. - Челя­бинск,2010. - 231 с.. 2010

Еще по теме § 10. Закон, причинность и информация: