§ 3. Качественный аспект информации
Выше мы рассматривали математические теории и концепции информации, выделяющие количественный аспект информации. Даже применение теоретико-информационных методов к топологии - разделу математики, занимающемуся качественными отношениями пространства, преследует цель измерения этих качественных различий посредством количественных.
Таким образом, все упомянутые теории информации имеют дело с «чистым» количеством информации, соответствующим различным математическим структурам.Но информация имеет еще и качественный аспект, к изучению которого уже приступила современная наука. В чем же он заключается? Прежде всего следует отметить, что математическое понимание количества информации как степени снятой, устраняемой неопределенности носит в основном теоретикомножественный характер. Мы изучаем некоторую функцию различных множеств. Но понятие множества в известной степени отвлекается от природы входящих в него элементов. Конечно, здесь не происходит полного отвлечения от качества элементов. Само объединение элементов во множество всегда предполагает наличие у них некоторого свойства, признака, благодаря чему они образуют данное множество, а не иное. Значит, каждый элемент множества уже обладает определенным качественным отличием от элемента другого множества. Кроме того, внутри множества различение элементов друг от друга носит тоже каче - ственный характер. Поиск качественного аспекта информации и состоит, в частности, в учете природы элементов, которые объединяются во множества, он связан с анализом качественной определенности множества, т. е. в конечном счете качественного многообразия материи. Поскольку неопределенность и информация, по-видимому, всегда присущи любым множествам, то качество информации можно представить в виде качественного аспекта снимаемой неопределенности множеств.
Какие же из современных теорий затрагивают качественный аспект информации? Прежде всего отметим то направление развития теории информации, которое хотя и тесно связано со статистической теорией, но отнюдь не сводится к ней.
Речь идет о теории кодирования и декодирования информации, использующей не только вероятностные, но и алгебраические идеи комбинаторного характера.С кодом и кодированием мы встречаемся в повседневной жизни. Так, операция перевода с одного языка на другой может быть названа кодированием мысли, сообщения. Можно предложение, написанное на русском языке, закодировать азбукой Морзе, где каждой букве или цифре соответствует определенная совокупность «точек» и «тире». Система правил, позволяющих переводить с одного языка (естественного и искусственного) на другой, называется кодом. Операция, соответствующая обратному переводу, дает представление о декодировании (например, расшифровка сообщения, переданного азбукой Морзе).
Понятиям кода, кодирования, декодирования можно придать весьма широкий смысл. Сообщения могут рассматриваться как некоторые множества (последовательности). Но нередко каждая последовательность содержит неодинаковое число различных элементов, например букв. Если последовательность имеет всего два различных элемента, то ее код называется двоичным, если три различных элемента, то - троичным и т. д. Последовательности, закодированные различными кодами, могут содержать одинаковое количество информации, то есть снятой неопределенности. Таким образом, кодирование можно определить как такое преобразование информации, которое оставляет неизменным ее количество, но меняет качественную природу носителей информации. Разумеется, данное определение не охватывает всего содержания понятия кодирования, но важно показать, что это понятие тесно связано с понятием качества информации. Кодирование может означать такое преобразование информации, при котором ее качество (например, смысл) сохраняется в одном отношении и изменяется в другом.
Все материальные системы в какой-то степени можно рассматривать как некоторые множества, закодированные на своем «языке» при помощи некоторого конечного числа «букв». Именно такой подход мы встречаем в работах Н. М. Амосова, который также связывает понятие кода с качеством информации.
На атомном уровне код состоит из элементарных частиц, на молекулярном уровне - из атомов и т. д. В связи с этим Н. М. Амосовым интересно ставится проблема состава и взаимоотношения высших и низших кодов. «...Большая белковая молекула, - пишет он, - может получать информацию, переданную низшими кодами - элементарными частицами, отдельными атомами. Но высший код для нее - молекулярный. Если на нее воздействовать, скажем, словом, она «не поймет», так как ее «качество», ее структура не в состоянии воспринимать этот «слишком высокий» код. Итак, строение, структура, система тесно связаны с кодом передаваемой и воспринимаемой информации. Поэтому можно сказать, что код определяет качество.Можно ли молекулярный код разложить на атомный и элементарный? Да, конечно, потому что знак высшего кода является результатом соединения определенным образом в пространстве и времени некоторого числа знаков низшего кода - результатом интегрирования. Но заменить высший код низшими нельзя, так же как нельзя заменить по своему действию молекулу каким-то числом отдельно действующих атомов или элементарных частиц, входящих в молекулу. Переход от элементарных частиц к
*
атомам и от них к молекулам - это качественный скачок» . Здесь проблема качества информации, как видим, связана со ступенями, уровнями развития материи. Само развитие в информационном плане можно представить как возникновение высшего кода из низшего. Рассматриваемый подход предполагает как выявление качества информации, так и информационный анализ самого качества объектов.
Наличие у информации качества ставит проблему классификации видов информации. Такие попытки уже предпринимались. Н. М. Амосов классифицирует информацию по уровням развития материи, В. А. Полушкин делит всю информацию на элементарную, биологическую и логическую **. Под элементарной информацией понимается информация в неживой природе.
Существуют и попытки классификации информации уже внутри биологической, человеческой и т.
д. Проблема классификации видов информации еще только поставлена, но ясно, что ее решение необходимо. Эта необходимость вызывается исследованием не только качественного, но и количественного аспекта информации. Надо думать, что определенные качественно отличные виды информации требуют введения и особых количественных мер, как это было в случае различных математических структур.Не ставя своей задачей дать подробную классификацию видов информации, остановимся на качестве человеческой (или социальной) информации, как наиболее важного ее вида. Из всех возможных аспектов человеческой информации, то есть информации, которой обмениваются между собой люди в процессе общения, мы выделим всего два: семантический (содержательный) и прагматический (ценностный).
Наиболее известны работы по семантической теории информации . Вслед за И. Виллем Р. Карнап и И. Бар-Хиллел предложили простейший вариант информационного анализа содержа-
w Т\ ________________________________________________________________________________________________________________________ [9]7
тельной стороны языка. В их построении семантической теории информации используется символическая логика, т. е. логика, которая излагается при помощи символики, аналогичной математической. Основная схема построения этой теории следующая.
Рассматривается модель простого формализованного языка, включающего конечное число имен индивидов (единичных предметов) и то же конечное число предикатов (логических сказуемых). В этом языке выделяются определенные сложные предложения, которые называются описаниями состояния.
Каждому такому описанию состояния сопоставляется некоторое положительное число, которое называется мерой.
Мера истолковывается в вероятностном смысле, и устанавливается ряд аксиом, которые аналогичны аксиомам теории вероятностей. Вероятностный смысл меры описания состояния позволяет пользоваться результатами индуктивной (вероятностной) логики. Если статистическая теория информации строится на понятии математической вероятности, то семантическая теория Карнапа - Бар-Хиллела основывается на понятии логической вероятности [10].
Методы индуктивной логики позволяют определить, в какой степени подтверждается та или иная выдвинутая гипотеза.
Для этого устанавливается связь гипотезы h с начальным достоверным знанием е (эмпирическими данными). Оказывается, степень подтверждения гипотезы с (h, e), рассматриваемая как логическая вероятность, максимальна (равна единице), когда гипотеза полностью вытекает из эмпирических данных. И наоборот, степень подтверждения равна нулю, если гипотеза не вытекает из данных опыта. Здесь можно говорить и о величине семантической информации inf(h/e), содержащейся в гипотезе h относительно достоверного знания е. Если логическая вероятность равна единице, то считается, что величина семантической информации равна нулю. С уменьшением степени подтверждения количество семантической информации увеличивается.
С точки зрения семантической теории информации Карнапа - Бар-Хиллела высказывание «На Марсе есть жизнь» содержит информацию, ибо эта гипотеза не подтверждена имеющимися экспериментальными данными. В то же время высказывание «На Земле есть жизнь» оказывается лишенным семантической информации, ибо это достоверное знание. Подобное положение выглядит весьма парадоксальным. Ведь и достоверное знание обладает смыслом, содержанием. Но содержание в теории Карнапа - Бар-Хиллела, как они отмечают сами, аналогично «информации, сообщаемой данным предложением». Получается, что все достоверное, доказанное знание не обладает содержанием, а такое содержание присуще лишь вероятностным формам познания. Последовательное проведение такой точки зрения приводит к нелепостям. Разве не странно, что гипотезы о сверхъестественных силах с точки зрения теории Карнапа - Бар- Хиллела содержат информацию, в то время как утверждения о том, что этих сил не существует, не содержат информации?
Ясно, что семантическая теория информации не может основываться лишь на вероятностных представлениях. В настоящее время в ней, так же как и в математических теориях, намечается отход от вероятностной концепции, обобщение с точки зрения теории информации смысла, содержания человеческих знаний.
Интересную попытку в этом направлении предпринял
*
Ю. А. Шрейдер . В предложенной им модели семантической информации информацией обладают не только гипотезы (как у Р. Карнапа и И. Бар-Хиллела), но вообще любые сведения, кото - рые изменяют запас знаний приемника информации (этот запас знаний называется тезаурусом). В общем случае семантический аспект информации выражает отношение между информацией как компонентом отражения и отражаемым объектом, так сказать, «передатчиком» информации. Количество семантической информации, содержащееся, например, в каком-либо тексте, измеряется степенью изменения тезауруса под воздействием этого текста. Так, школьник, читая учебник, изменяет свой запас знаний, увеличивает его. Это изменение можно определенным способом измерить и определить количество семантической информации. Однако академик, прочитав тот же учебник, не приобретет никаких знаний, так как сведения, содержащиеся в учебнике средней школы, ему были известны, - в этом случае он не получает семантической информации, не изменяет запаса своих знаний.
Нам представляется, что этот подход к построению семантической теории информации более перспективен, чем подход Карнапа - Бар-Хиллела, поскольку позволяет анализировать методами семантической теории информации и достоверное знание. Интересную попытку выхода за рамки вероятностных представлений предпринял также Е. К. Войшвилло [11]. Таким образом, чисто вероятностный подход к семантической теории информации оказывается малообещающим, в настоящее время его сменяют более общие модели семантической информации.
Рассмотрим еще одно отношение - между информацией, приемником информации и целью, которую ставит приемник информации (скажем, тот или иной человек). Это отношение называется прагматическим отношением.
Одним из наиболее известных прагматических свойств информации является ценность. Ценность информации вначале была определена с помощью теоретико-вероятностного подхода.
А. А. Харкевич полагает, что ценность информации может выра-
*
жаться через приращение вероятности достижения цели . В формуле А. А. Харкевича ценность информации обозначает разность индивидуальных количеств информации. В отличие от этого формула Шеннона (для равновероятных случаев) определяет количество информации для группы событий, причем безразлично, какое из них произойдет в группе. Она абстрагируется от индивидуальной ценности информации того или иного события.
С точки зрения шенноновской теории информации ответ на вопрос: «Идет ли в настоящий момент на улице дождь?» - может быть выбором двух возможностей, взаимоисключающих друг друга. В любом случае при устранении неопределенности мы получаем один бит информации. Однако одинаково ли важна для нас эта информация? Ведь наше поведение существенно изменяется в зависимости от характера ответа: мы решаем не выходить на улицу или берем плащ и т. д. Таким образом, хотя получено одно и то же количество информации, ценность ее будет различной. Для получателя информации вероятность осу-
*
Если до получения информации эта вероятность равнялось p0, а после получения она стала рі, то ценность полученной информации можно определить как
Р
log2 p1 - log2p0 = log2 ——. А. А. Харкевич отмечает, что «ценность информации измеря-
Ро
ется в единицах информации и, более того, различие между обеими категориями как бы стирается» (Харкевич А. А. О ценности информации // Проблемы кибернетики: сб. Вып. 4. М.: Физматгиз, 1960. Вып. 4. С. 54.) Приведенное А. А. Харкевичем выражение для ценности информации, как видим, ничем не отличается от определения индивидуального количества информация, о котором говорилось в § 1. Сама ценность информации и есть ее количество, по А. А. Харкевичу.
ществления какого-либо определенного события из некоторой их группы будет иметь преимущественное значение. Вот почему теории ценности информации не могут абстрагироваться от индивидуального количества информации события. Можно поэтому полагать, что разность индивидуальных количеств информации до и после сообщения в статистической теории и есть его информационная ценность.
Измерение ценности информации через ее количество связано с тем, что в теории Шеннона под информацией понимается снятая неопределенность, т. е. считается, что поступающая информация всегда является ценной. Понятие неценной информации чуждо шенноновской теории - сведения, не уменьшающие неопределенности, информацией просто не являются. Но, хотя упомянутая теория неявно исходит из допущения, что получаемая информация является ценной, все же она является не теорией ценности, а именно теорией количественного аспекта информации. Причина этого заключается в том, что понятие цели в этой теории не фигурирует, она считается заданной извне и не изменяющейся в процессе передачи сообщения. Меняться может лишь количество информации.
Наряду с направлением в теории ценности информации, начатым А. А. Харкевичем, можно отметить еще два подхода: теоретико-игровой, развиваемый в разных вариантах М. К. Гаву- риным, Р. Л. Стратоновичем, Б. А. Гришаниным, и так называемый «алгоритмический» подход М. М. Бонгарда.
Не рассматривая подробно упомянутые подходы, отметим их две важные особенности. Во-первых, все они измеряют ценность информации посредством статистического количества информации и, во-вторых, они обращают внимание на использование информации с какой-то целью. Если первая особенность досталась в наследство от классической (шенноновской) теории информации, то вторая свидетельствует о возможности отхода от традиционной проблематики, выражает в значительной степени специфику теории ценности информации.
Можно предположить, что ценность информации измеряется не только через количественные характеристики, но и через семантические. Измерение ценности информации посредством семантических характеристик может быть использовано, например, в теории научной информации (см. § 16).
Важно отметить, что все попытки определения ценности информации связаны с понятием цели. Но понятие цели обычно характеризует человеческую деятельность и функционирование кибернетических устройств, которым человек задает цель (или программу, которая ведет к цели). В определенной степени оно может быть применено и к животному миру, если цель понимать несколько более широко (не связывая обязательно с сознательной деятельностью). В неживой же природе нет никаких целей, а значит, там отсутствует такое свойство информации, как ее ценность.
Попытки связать понятие ценности информации с понятием цели представляются весьма плодотворными. Ведь в большинстве случаев информация важна субъекту не сама по себе, а для каких-то целей. Правда, бывает и так, что цель не выступает в качестве «третьего звена», а совпадает с приемником информации (находится в нем) или с информацией. Например, если ставится цель понять тот или иной текст, то в данном случае цель не выходит за пределы субъекта и информации (текста).
В этой связи имеет смысл различать ценность информации (в узком смысле) - в рамках отношения «информация и ее приемник» - и ее полезность - отношение «информация, ее приемник и цель». Полезно то, ценность чего заключается не в нем самом и что является лишь средством существования другого. Необходимо, однако, учитывать относительность ценности и полезности информации, ибо то, что полезно в одном отношении, в одной системе, может быть ценным в ином отношении, в другой системе.
Ясно, что ценность информации отлична от ее смысла. Попытки их отождествить ведут к субъективизму. Но было бы неправильным считать ценность информации чисто субъективной.
Между тем подобные ошибочные выводы иногда делают на том основании, что ценность может быть совершенно различной для всех индивидуумов, которые получают одну и ту же информацию. Например, в работе Д. М. Маккея [12] утверждается, что отно - сительность ценности информации вполне аналогична относительности в теории А. Эйнштейна, которая, по его мнению, характеризует не объективно существующие отношения инерци- альных систем отсчета, а зависимость физической реальности от субъективной точки зрения наблюдателя. Д. М. Маккей называет это «эпистемологическим принципом относительности» и полагает, что гуманитарные науки должны им руководствоваться.
Ценность информации, как уже отмечалось, есть в общем случае отношение субъекта (как приемника информации), информации и цели. При этом информация выступает как объективный фактор или носитель ценности. Последняя поэтому является результатом взаимодействия субъективного и объективного факторов. Не «переживания», не точка зрения субъекта определяют ценность информации, а его взаимосвязь с информацией и с целью.
Ценность информации иногда может рассматриваться как положительная и отрицательная. Так, в теории обмена информацией между людьми (развиваемой в работах Р. Аккофа, Г. Бейтсона, Д. М. Маккея, У Майлса и других ученых) используются отрицательные ценности (чего нет в статистической теории информации). В статистической теории получение сообщения только уменьшает или сохраняет неопределенность, тогда как в теории обмена информацией неопределенность может возрасти в результате получения сведений. «Это означает, - пишет Майлс, - что сообщение может не только передавать информацию, но и отбирать ее. И это не столь неоправданно, как может показаться с первого взгляда. Например, представим себе человека, которому вначале сообщили, что “в настоящий момент на улице идет дождь”, и почти немедленно после этого он получил другое сообщение: “сейчас дождя нет”. Тогда, если первое сообщение передает ему информацию, второе должно ее отбирать...» [13]
Разумеется, прагматический аспект информации не сводится лишь к понятиям ценности и полезности. По-видимому, существуют и другие характеристики прагматического свойства информации, которые еще ждут своей разработки.
Из изложенного мы можем сделать вывод, что развитие концепции информации происходит в ряде направлений. Интенсивно развивается статистический подход к определению понятия количества информации. Вместе с тем наметился отход от чисто статистических, вероятностных методов (причем не только в математических, но и в семантических концепциях информации).
Количественный аспект информации выступает как наиболее простой уровень научного знания об информации. Человеческая мысль стремится подняться на следующий уровень и отобразить качественную сторону информации. Это сказывается в попытках классификации видов информации, в появлении соответствующих концепций информации (физической, психологической, биологической и др.), в развитии теории кодирования и декодирования информации, семантической и прагматической теории информации и т. д. Хотя концепции качества информации и развиваются гораздо слабее математических концепций, все же отход от количественных трактовок информации означает нащупывание более глубокой ее сущности.
Наконец, можно говорить о проникновении всех упомянутых (и особенно статистической) концепций информации в различные науки, начиная с наук о неживой природе и кончая науками о познании и мышлении. Связь теорий информации и их приложений взаимная. Внедрение теорий информации в ту или иную науку дает возможность исследовать специфику различных информационных процессов. В свою очередь, это ведет к развитию теорий информации, что позволяет расширить область их приложения и т. д.
Даже из того краткого обзора различных концепций информации, который был приведен, обнаруживается многообразие, не- сводимость друг к другу идей, методов, соображений о количественном и качественном аспектах информации. Возникает вопрос: нельзя ли дать наиболее общее определение информации, которое не противоречило бы ни одной из существующих теорий и ее приложениям, вытекало бы из логики развития самого понятия информации и явилось бы конечным результатом этого развития?