<<
>>

§ 3. Качественный аспект информации

Выше мы рассматривали математические теории и концеп­ции информации, выделяющие количественный аспект информа­ции. Даже применение теоретико-информационных методов к то­пологии - разделу математики, занимающемуся качественными отношениями пространства, преследует цель измерения этих ка­чественных различий посредством количественных.

Таким обра­зом, все упомянутые теории информации имеют дело с «чистым» количеством информации, соответствующим различным матема­тическим структурам.

Но информация имеет еще и качественный аспект, к изуче­нию которого уже приступила современная наука. В чем же он заключается? Прежде всего следует отметить, что математиче­ское понимание количества информации как степени снятой, устраняемой неопределенности носит в основном теоретико­множественный характер. Мы изучаем некоторую функцию раз­личных множеств. Но понятие множества в известной степени отвлекается от природы входящих в него элементов. Конечно, здесь не происходит полного отвлечения от качества элементов. Само объединение элементов во множество всегда предполагает наличие у них некоторого свойства, признака, благодаря чему они образуют данное множество, а не иное. Значит, каждый эле­мент множества уже обладает определенным качественным от­личием от элемента другого множества. Кроме того, внутри множества различение элементов друг от друга носит тоже каче - ственный характер. Поиск качественного аспекта информации и состоит, в частности, в учете природы элементов, которые объе­диняются во множества, он связан с анализом качественной оп­ределенности множества, т. е. в конечном счете качественного многообразия материи. Поскольку неопределенность и инфор­мация, по-видимому, всегда присущи любым множествам, то ка­чество информации можно представить в виде качественного ас­пекта снимаемой неопределенности множеств.

Какие же из современных теорий затрагивают качествен­ный аспект информации? Прежде всего отметим то направление развития теории информации, которое хотя и тесно связано со статистической теорией, но отнюдь не сводится к ней.

Речь идет о теории кодирования и декодирования информации, исполь­зующей не только вероятностные, но и алгебраические идеи комбинаторного характера.

С кодом и кодированием мы встречаемся в повседневной жизни. Так, операция перевода с одного языка на другой может быть названа кодированием мысли, сообщения. Можно предло­жение, написанное на русском языке, закодировать азбукой Мор­зе, где каждой букве или цифре соответствует определенная со­вокупность «точек» и «тире». Система правил, позволяющих пе­реводить с одного языка (естественного и искусственного) на другой, называется кодом. Операция, соответствующая обратно­му переводу, дает представление о декодировании (например, расшифровка сообщения, переданного азбукой Морзе).

Понятиям кода, кодирования, декодирования можно придать весьма широкий смысл. Сообщения могут рассматриваться как не­которые множества (последовательности). Но нередко каждая по­следовательность содержит неодинаковое число различных эле­ментов, например букв. Если последовательность имеет всего два различных элемента, то ее код называется двоичным, если три раз­личных элемента, то - троичным и т. д. Последовательности, зако­дированные различными кодами, могут содержать одинаковое ко­личество информации, то есть снятой неопределенности. Таким образом, кодирование можно определить как такое преобразование информации, которое оставляет неизменным ее количество, но ме­няет качественную природу носителей информации. Разумеется, данное определение не охватывает всего содержания понятия ко­дирования, но важно показать, что это понятие тесно связано с по­нятием качества информации. Кодирование может означать такое преобразование информации, при котором ее качество (например, смысл) сохраняется в одном отношении и изменяется в другом.

Все материальные системы в какой-то степени можно рас­сматривать как некоторые множества, закодированные на своем «языке» при помощи некоторого конечного числа «букв». Именно такой подход мы встречаем в работах Н. М. Амосова, который также связывает понятие кода с качеством информации.

На атом­ном уровне код состоит из элементарных частиц, на молекулярном уровне - из атомов и т. д. В связи с этим Н. М. Амосовым интерес­но ставится проблема состава и взаимоотношения высших и низ­ших кодов. «...Большая белковая молекула, - пишет он, - может получать информацию, переданную низшими кодами - элементар­ными частицами, отдельными атомами. Но высший код для нее - молекулярный. Если на нее воздействовать, скажем, словом, она «не поймет», так как ее «качество», ее структура не в состоянии воспринимать этот «слишком высокий» код. Итак, строение, структура, система тесно связаны с кодом передаваемой и вос­принимаемой информации. Поэтому можно сказать, что код опре­деляет качество.

Можно ли молекулярный код разложить на атомный и эле­ментарный? Да, конечно, потому что знак высшего кода является результатом соединения определенным образом в пространстве и времени некоторого числа знаков низшего кода - результатом интегрирования. Но заменить высший код низшими нельзя, так же как нельзя заменить по своему действию молекулу каким-то числом отдельно действующих атомов или элементарных час­тиц, входящих в молекулу. Переход от элементарных частиц к

*

атомам и от них к молекулам - это качественный скачок» . Здесь проблема качества информации, как видим, связана со ступеня­ми, уровнями развития материи. Само развитие в информацион­ном плане можно представить как возникновение высшего кода из низшего. Рассматриваемый подход предполагает как выявле­ние качества информации, так и информационный анализ самого качества объектов.

Наличие у информации качества ставит проблему класси­фикации видов информации. Такие попытки уже предпринима­лись. Н. М. Амосов классифицирует информацию по уровням развития материи, В. А. Полушкин делит всю информацию на элементарную, биологическую и логическую **. Под элементар­ной информацией понимается информация в неживой природе.

Существуют и попытки классификации информации уже внутри биологической, человеческой и т.

д. Проблема классифи­кации видов информации еще только поставлена, но ясно, что ее решение необходимо. Эта необходимость вызывается исследова­нием не только качественного, но и количественного аспекта ин­формации. Надо думать, что определенные качественно отличные виды информации требуют введения и особых количественных мер, как это было в случае различных математических структур.

Не ставя своей задачей дать подробную классификацию ви­дов информации, остановимся на качестве человеческой (или со­циальной) информации, как наиболее важного ее вида. Из всех возможных аспектов человеческой информации, то есть инфор­мации, которой обмениваются между собой люди в процессе общения, мы выделим всего два: семантический (содержатель­ный) и прагматический (ценностный).

Наиболее известны работы по семантической теории ин­формации . Вслед за И. Виллем Р. Карнап и И. Бар-Хиллел пред­ложили простейший вариант информационного анализа содержа-

w Т\ ________________________________________________________________________________________________________________________ [9]7

тельной стороны языка. В их построении семантической теории информации используется символическая логика, т. е. логика, ко­торая излагается при помощи символики, аналогичной математи­ческой. Основная схема построения этой теории следующая.

Рассматривается модель простого формализованного языка, включающего конечное число имен индивидов (единичных пред­метов) и то же конечное число предикатов (логических сказуе­мых). В этом языке выделяются определенные сложные предло­жения, которые называются описаниями состояния.

Каждому такому описанию состояния сопоставляется неко­торое положительное число, которое называется мерой.

Мера истолковывается в вероятностном смысле, и устанав­ливается ряд аксиом, которые аналогичны аксиомам теории ве­роятностей. Вероятностный смысл меры описания состояния по­зволяет пользоваться результатами индуктивной (вероятностной) логики. Если статистическая теория информации строится на понятии математической вероятности, то семантическая теория Карнапа - Бар-Хиллела основывается на понятии логической ве­роятности [10].

Методы индуктивной логики позволяют определить, в ка­кой степени подтверждается та или иная выдвинутая гипотеза.

Для этого устанавливается связь гипотезы h с начальным досто­верным знанием е (эмпирическими данными). Оказывается, сте­пень подтверждения гипотезы с (h, e), рассматриваемая как ло­гическая вероятность, максимальна (равна единице), когда гипо­теза полностью вытекает из эмпирических данных. И наоборот, степень подтверждения равна нулю, если гипотеза не вытекает из данных опыта. Здесь можно говорить и о величине семанти­ческой информации inf(h/e), содержащейся в гипотезе h относи­тельно достоверного знания е. Если логическая вероятность рав­на единице, то считается, что величина семантической информа­ции равна нулю. С уменьшением степени подтверждения коли­чество семантической информации увеличивается.

С точки зрения семантической теории информации Карна­па - Бар-Хиллела высказывание «На Марсе есть жизнь» содер­жит информацию, ибо эта гипотеза не подтверждена имеющи­мися экспериментальными данными. В то же время высказыва­ние «На Земле есть жизнь» оказывается лишенным семантиче­ской информации, ибо это достоверное знание. Подобное поло­жение выглядит весьма парадоксальным. Ведь и достоверное знание обладает смыслом, содержанием. Но содержание в тео­рии Карнапа - Бар-Хиллела, как они отмечают сами, аналогично «информации, сообщаемой данным предложением». Получается, что все достоверное, доказанное знание не обладает содержани­ем, а такое содержание присуще лишь вероятностным формам познания. Последовательное проведение такой точки зрения приводит к нелепостям. Разве не странно, что гипотезы о сверхъестественных силах с точки зрения теории Карнапа - Бар- Хиллела содержат информацию, в то время как утверждения о том, что этих сил не существует, не содержат информации?

Ясно, что семантическая теория информации не может ос­новываться лишь на вероятностных представлениях. В настоя­щее время в ней, так же как и в математических теориях, наме­чается отход от вероятностной концепции, обобщение с точки зрения теории информации смысла, содержания человече­ских знаний.

Интересную попытку в этом направлении предпринял

*

Ю. А. Шрейдер . В предложенной им модели семантической информации информацией обладают не только гипотезы (как у Р. Карнапа и И. Бар-Хиллела), но вообще любые сведения, кото - рые изменяют запас знаний приемника информации (этот запас знаний называется тезаурусом). В общем случае семантический аспект информации выражает отношение между информацией как компонентом отражения и отражаемым объектом, так сказать, «передатчиком» информации. Количество семантической инфор­мации, содержащееся, например, в каком-либо тексте, измеряется степенью изменения тезауруса под воздействием этого текста. Так, школьник, читая учебник, изменяет свой запас знаний, уве­личивает его. Это изменение можно определенным способом из­мерить и определить количество семантической информации. Однако академик, прочитав тот же учебник, не приобретет ника­ких знаний, так как сведения, содержащиеся в учебнике средней школы, ему были известны, - в этом случае он не получает се­мантической информации, не изменяет запаса своих знаний.

Нам представляется, что этот подход к построению семан­тической теории информации более перспективен, чем подход Карнапа - Бар-Хиллела, поскольку позволяет анализировать ме­тодами семантической теории информации и достоверное зна­ние. Интересную попытку выхода за рамки вероятностных пред­ставлений предпринял также Е. К. Войшвилло [11]. Таким образом, чисто вероятностный подход к семантической теории информа­ции оказывается малообещающим, в настоящее время его сме­няют более общие модели семантической информации.

Рассмотрим еще одно отношение - между информацией, приемником информации и целью, которую ставит приемник информации (скажем, тот или иной человек). Это отношение на­зывается прагматическим отношением.

Одним из наиболее известных прагматических свойств ин­формации является ценность. Ценность информации вначале бы­ла определена с помощью теоретико-вероятностного подхода.

А. А. Харкевич полагает, что ценность информации может выра-

*

жаться через приращение вероятности достижения цели . В формуле А. А. Харкевича ценность информации обозначает разность индивидуальных количеств информации. В отличие от этого формула Шеннона (для равновероятных случаев) определя­ет количество информации для группы событий, причем безраз­лично, какое из них произойдет в группе. Она абстрагируется от индивидуальной ценности информации того или иного события.

С точки зрения шенноновской теории информации ответ на вопрос: «Идет ли в настоящий момент на улице дождь?» - может быть выбором двух возможностей, взаимоисключающих друг друга. В любом случае при устранении неопределенности мы получаем один бит информации. Однако одинаково ли важ­на для нас эта информация? Ведь наше поведение существенно изменяется в зависимости от характера ответа: мы решаем не выходить на улицу или берем плащ и т. д. Таким образом, хотя получено одно и то же количество информации, ценность ее бу­дет различной. Для получателя информации вероятность осу-

*

Если до получения информации эта вероятность равнялось p0, а после получе­ния она стала рі, то ценность полученной информации можно определить как

Р

log2 p1 - log2p0 = log2 ——. А. А. Харкевич отмечает, что «ценность информации измеря-

Ро

ется в единицах информации и, более того, различие между обеими категориями как бы стирается» (Харкевич А. А. О ценности информации // Проблемы кибернетики: сб. Вып. 4. М.: Физматгиз, 1960. Вып. 4. С. 54.) Приведенное А. А. Харкевичем выражение для ценности информации, как видим, ничем не отличается от определения индивиду­ального количества информация, о котором говорилось в § 1. Сама ценность информа­ции и есть ее количество, по А. А. Харкевичу.

ществления какого-либо определенного события из некоторой их группы будет иметь преимущественное значение. Вот поче­му теории ценности информации не могут абстрагироваться от индивидуального количества информации события. Можно по­этому полагать, что разность индивидуальных количеств ин­формации до и после сообщения в статистической теории и есть его информационная ценность.

Измерение ценности информации через ее количество связа­но с тем, что в теории Шеннона под информацией понимается сня­тая неопределенность, т. е. считается, что поступающая информа­ция всегда является ценной. Понятие неценной информации чуждо шенноновской теории - сведения, не уменьшающие неопределен­ности, информацией просто не являются. Но, хотя упомянутая тео­рия неявно исходит из допущения, что получаемая информация яв­ляется ценной, все же она является не теорией ценности, а именно теорией количественного аспекта информации. Причина этого за­ключается в том, что понятие цели в этой теории не фигурирует, она считается заданной извне и не изменяющейся в процессе пере­дачи сообщения. Меняться может лишь количество информации.

Наряду с направлением в теории ценности информации, начатым А. А. Харкевичем, можно отметить еще два подхода: теоретико-игровой, развиваемый в разных вариантах М. К. Гаву- риным, Р. Л. Стратоновичем, Б. А. Гришаниным, и так называе­мый «алгоритмический» подход М. М. Бонгарда.

Не рассматривая подробно упомянутые подходы, отметим их две важные особенности. Во-первых, все они измеряют цен­ность информации посредством статистического количества ин­формации и, во-вторых, они обращают внимание на использова­ние информации с какой-то целью. Если первая особенность досталась в наследство от классической (шенноновской) теории информации, то вторая свидетельствует о возможности отхода от традиционной проблематики, выражает в значительной степени специфику теории ценности информации.

Можно предположить, что ценность информации измеряет­ся не только через количественные характеристики, но и через семантические. Измерение ценности информации посредством семантических характеристик может быть использовано, напри­мер, в теории научной информации (см. § 16).

Важно отметить, что все попытки определения ценности информации связаны с понятием цели. Но понятие цели обычно характеризует человеческую деятельность и функционирование кибернетических устройств, которым человек задает цель (или программу, которая ведет к цели). В определенной степени оно может быть применено и к животному миру, если цель понимать несколько более широко (не связывая обязательно с сознательной деятельностью). В неживой же природе нет никаких целей, а зна­чит, там отсутствует такое свойство информации, как ее ценность.

Попытки связать понятие ценности информации с поняти­ем цели представляются весьма плодотворными. Ведь в боль­шинстве случаев информация важна субъекту не сама по себе, а для каких-то целей. Правда, бывает и так, что цель не выступает в качестве «третьего звена», а совпадает с приемником информа­ции (находится в нем) или с информацией. Например, если ста­вится цель понять тот или иной текст, то в данном случае цель не выходит за пределы субъекта и информации (текста).

В этой связи имеет смысл различать ценность информации (в узком смысле) - в рамках отношения «информация и ее прием­ник» - и ее полезность - отношение «информация, ее приемник и цель». Полезно то, ценность чего заключается не в нем самом и что является лишь средством существования другого. Необходимо, однако, учитывать относительность ценности и полезности ин­формации, ибо то, что полезно в одном отношении, в одной систе­ме, может быть ценным в ином отношении, в другой системе.

Ясно, что ценность информации отлична от ее смысла. По­пытки их отождествить ведут к субъективизму. Но было бы не­правильным считать ценность информации чисто субъективной.

Между тем подобные ошибочные выводы иногда делают на том основании, что ценность может быть совершенно различной для всех индивидуумов, которые получают одну и ту же информа­цию. Например, в работе Д. М. Маккея [12] утверждается, что отно - сительность ценности информации вполне аналогична относи­тельности в теории А. Эйнштейна, которая, по его мнению, ха­рактеризует не объективно существующие отношения инерци- альных систем отсчета, а зависимость физической реальности от субъективной точки зрения наблюдателя. Д. М. Маккей называет это «эпистемологическим принципом относительности» и пола­гает, что гуманитарные науки должны им руководствоваться.

Ценность информации, как уже отмечалось, есть в общем случае отношение субъекта (как приемника информации), инфор­мации и цели. При этом информация выступает как объективный фактор или носитель ценности. Последняя поэтому является ре­зультатом взаимодействия субъективного и объективного факто­ров. Не «переживания», не точка зрения субъекта определяют цен­ность информации, а его взаимосвязь с информацией и с целью.

Ценность информации иногда может рассматриваться как положительная и отрицательная. Так, в теории обмена информа­цией между людьми (развиваемой в работах Р. Аккофа, Г. Бейт­сона, Д. М. Маккея, У Майлса и других ученых) используются отрицательные ценности (чего нет в статистической теории ин­формации). В статистической теории получение сообщения только уменьшает или сохраняет неопределенность, тогда как в теории обмена информацией неопределенность может возрасти в результате получения сведений. «Это означает, - пишет Майлс, - что сообщение может не только передавать информацию, но и отбирать ее. И это не столь неоправданно, как может показаться с первого взгляда. Например, представим себе человека, которо­му вначале сообщили, что “в настоящий момент на улице идет дождь”, и почти немедленно после этого он получил другое со­общение: “сейчас дождя нет”. Тогда, если первое сообщение пе­редает ему информацию, второе должно ее отбирать...» [13]

Разумеется, прагматический аспект информации не сводится лишь к понятиям ценности и полезности. По-видимому, сущест­вуют и другие характеристики прагматического свойства инфор­мации, которые еще ждут своей разработки.

Из изложенного мы можем сделать вывод, что развитие кон­цепции информации происходит в ряде направлений. Интенсивно развивается статистический подход к определению понятия коли­чества информации. Вместе с тем наметился отход от чисто ста­тистических, вероятностных методов (причем не только в матема­тических, но и в семантических концепциях информации).

Количественный аспект информации выступает как наибо­лее простой уровень научного знания об информации. Человече­ская мысль стремится подняться на следующий уровень и ото­бразить качественную сторону информации. Это сказывается в попытках классификации видов информации, в появлении соот­ветствующих концепций информации (физической, психологи­ческой, биологической и др.), в развитии теории кодирования и декодирования информации, семантической и прагматической теории информации и т. д. Хотя концепции качества информации и развиваются гораздо слабее математических концепций, все же отход от количественных трактовок информации означает нащу­пывание более глубокой ее сущности.

Наконец, можно говорить о проникновении всех упомянутых (и особенно статистической) концепций информации в различные науки, начиная с наук о неживой природе и кончая науками о по­знании и мышлении. Связь теорий информации и их приложений взаимная. Внедрение теорий информации в ту или иную науку да­ет возможность исследовать специфику различных информацион­ных процессов. В свою очередь, это ведет к развитию теорий ин­формации, что позволяет расширить область их приложения и т. д.

Даже из того краткого обзора различных концепций инфор­мации, который был приведен, обнаруживается многообразие, не- сводимость друг к другу идей, методов, соображений о количест­венном и качественном аспектах информации. Возникает вопрос: нельзя ли дать наиболее общее определение информации, которое не противоречило бы ни одной из существующих теорий и ее при­ложениям, вытекало бы из логики развития самого понятия ин­формации и явилось бы конечным результатом этого развития?

<< | >>
Источник: Урсул, А. Д.. Природа информации: философский очерк /А. Д. Урсул; Челяб. гос. акад. культуры и искусств; Науч.-образоват. центр «Информационное общество»; Рос. гос. торгово-эконом. ун-т; Центр исслед. глоб. процессов и устойчивого развития. - 2-е изд. - Челя­бинск,2010. - 231 с.. 2010

Еще по теме § 3. Качественный аспект информации: