Основания Информологии и теории информации
(популярное изложение)
Часть 2


     Знаковая информация.
     Знаковая информация - метаинформация (информация о информации - данные и знания) связана с понятиями кодирования, интерпретации и понятием информационной системы. Знаковая информация возникает тогда, когда физическая информация (след, отпечаток) получает свою интерпретацию в рамках некоторой системы идеальных объектов - языка. На примере текстов на мертвых языках можно наблюдать, как исчезает вторичная информация (содержание текста) с исчезновением системы идеальных объектов - языка, в то время как физическая информация (текст) сохраняется. 

     Структура комплексного информационного процесса представляет собой совокупность последовательных фаз:
Представление знаковой информации в виде сообщения,
Передача сообщения в форме физической информации,
Восприятие физической информации и формирование ощущений,
Формирование образов на основе ощущений, но и с использованием образов, хранящихся в памяти,
Обработка полученной информации в результате взаимодействия образов, сформированных при получении сообщения и образов, хранящихся в памяти. 

     Терминология, используемая при работе со знаковой информацией:
Знаки - объекты или явления, служащие для обозначения другого объекта (свойства, отношения).
Денотат знака - реально существующий объект, обозначаемый этим знаком.
Экстенсионал знака (объем знака) определяет конкретный класс всех его допустимых денотатов, т.е. объектов, обозначаемых данным знаком.
Интенсионал знака (смысл знака) определяет связанное с ним понятие. В разных контекстах некоторый знак может выступать и как интенсионал и как экстенсионал.
Кодирование - присвоение определенному знаку некоторого определенного смысла.
Интерпретация - реализация смысла некоторого синтаксически законченного текста, представленного на конкретном языке.
Контекст - смысловое содержание текста, написанного на конкретном языке.

      Передача знаковой информации.
      При изучении процессов передачи сигналов акцент смещается от рассмотрения отдельных объектов к рассмотрению системы объектов (используются понятия, заимствованные из теории систем - структура, связи, информационные системы). При этом можно выделить носители информации - материальные объекты или структуры, основная функция которых - хранение информации, а так же информационные связи между элементами системы. Физически передачу информации можно представить как индуцирование в приемном устройстве изменений физического состояния. Информация в данном случае - это результат взаимодействия сообщения с априорной системой понятий приёмника сообщения. Так что мы вовсе не обмениваемся непосредственно информацией - только сообщениями.

      Терминология, используемая при описании процессов передачи информации:
Сигналами называются состояния объектов (носителей информации) в цепи, связывающей источник с получателем, при условии, что изменения состояния источника приводит к изменению состояний остальных объектов в этой цепи по правилам, известным получателю (такие правила называются Кодом).
Сообщение - какой-либо текст, зафиксированный на каком- то материальном носителе (в том числе и на системе звуковых или электромагнитных волн).
Носитель - материальный объект или структура, основная функция которого - хранение информации.
Модуляция - изменение материального объекта или структуры - носителя информации.
Модулятор - материальный объект или структура, основная функция которого - запись информации на носитель.
Демодуляция - изменение материального объекта или структуры - приемника информации, обусловленное изменениями сигналов (состояний объектов-носителей информации).
Демодулятор - материальный объект или структура, основная функция которого - считывание информации с носителя. Модем - структура, выполняющая функции и модулятора и демодулятора.
Кодер (Декодер) - материальный объект или структура, основная функция которого - преобразование сигналов по определенным правилам (кодирование / декодирование).
Кодек - структура, выполняющая функции и кодера и декодера.
Фильтрация - выделение определенных сигналов из общего потока сигналов.
Режекция - удаление определенных сигналов из общего потока сигналов.
Кофидек - структура, выполняющая функции кодера, фильтра и декодера.

      Основная трудность при изучении информатики - прикладной науки, изучающей процессы передачи знаковой информации, возникает из-за смешивания понятий "информация" и "сообщение". В одних случаях эти понятия рассматриваются как синонимы, а в других случаях - как различные понятия. Мы же всегда будем четко разграничивать как области применимости этих понятий, так и представления, соответствующие каждому из этих понятий.
    Как мы установили, информация по линиям связи не передается. Передаются сигналы, которые, взаимодействуя с объектом, вызывают изменения состояния объекта, а эти изменения и представляют собой информацию. В качестве объекта-приемника может выступать как оконечный получатель сигналов, так и объект перекодировщик, переводящий изменения одного сигнала в изменения другого сигнала. В этом случае термин "передача сообщения" представляет собой обобщенное обозначение большого количества взаимосвязанных процессов:
- изменение состояния носителя сигнала,
- перемещение носителя,
- изменение состояния объекта-приемника.
     К примеру - сообщение "к вам едет ревизор", переданное по телефонной линии является передачей информации только в случае, если это сообщение человек услышал, он знает язык, на котором передается сообщение, он знает, что к нему может приехать ревизор и т.д. В любом другом случае - не услышал, не знает языка и т.д., передача информации не состоялась, т.к. не было вызвано изменений у объекта-приемника, хотя сообщение по линии связи было передано.

      Сообщения характеризуются следующими свойствами:
  Синтаксис - свойство, определяющее способ представления информации на носителе (в сигнале). Так, данная знаковая информация представлена на электронном носителе с помощью определенного шрифта. Здесь же можно рассматривать такие параметры, как стиль и цвет шрифта, его размеры, междустрочный интервал и т.д.;
Семантика
- свойство, определяющее соответствие сигнала реальному миру. Семантика может рассматриваться как некоторое соглашение, известное потребителю информации, о том, что означает каждый сигнал (так называемое правило интерпретации). Например, именно семантику сигналов изучает начинающий автомобилист, штудирующий правила дорожного движения, познавая дорожные знаки (в этом случае сигналами выступают сами знаки). Семантику слов (сигналов) познаёт обучаемый какому-либо иностранному языку;
Прагматика - свойство, определяющее влияние информации на поведение потребителя.

      В информатике, как правило, измерению подвергают свойства сообщений, представленных дискретными сигналами. При этом различают следующие подходы:
- структурный. Измеряется количество информационных элементов, составляющих сообщение (геометрическая мера). Применяется для оценки возможностей запоминающих устройств, объемов передаваемых сообщений, инструментов кодирования без учета статистических характеристик их эксплуатации. При этом подходе используют комбинаторную меру (количество размещений и сочетаний информационных элементов в заданном объеме) и аддитивную меру (меру Хартли) (соотношение между длиной сообщения и мощностью алфавита).
- статистический. Учитывается вероятность появления сообщений - более информативным считается то сообщение, которое менее вероятно, т.е. менее всего ожидалось. Применяется при оценке значимости получаемого сообщения.
- семантический. Учитывается целесообразность и полезность сообщения. Применяется при оценке эффективности получаемых сообщений и их соответствие реальности.

      Следует подчеркнуть, что всегда можно указать пару крайних элементов в цепи передачи сигналов: переданный сигнал (сообщение), то есть состояние источника информации, и принятый сигнал, то есть состояние объекта, доступного для непосредственного наблюдения получателем. Состояние любого объекта можно математически описать при помощи набора чисел (параметров). Поскольку значения этих параметров обычно изменяются со временем, то математической моделью сигнала служит функция времени. Наиболее распространенной математической моделью сигнала, допускающей строгое количественное описание, является случайная функция. При этом конкретной реализации сигнала, возникшей в результате опыта, ставится в соответствие конкретная реализация этой случайной функции. Простейшая модель сигнала - случайная величина X(t). Для описания помехи используют те же модели, что и для описания сигнала. Принципиальное отличие сигналов от помехи сводится к тому, что помеха не имеет информативных параметров (не содержит информации). Для описания процесса передачи информации можно использовать математическую модель в виде множества случайных функций (ансамбль). При этом математическая модель должна учитывать объективное свойство информации - зависимость не только от свойств источника, но и зависимость от свойств приемника. То есть учитывать двойственную природу информации субъективно - объективную (информация существует объективно, но зависит от наблюдателя). Возьмем в качестве примера кусок камня. Информация об одном и том же куске камня, полученная в результате взаимодействия с ним, различна, в зависимости от того, кто с ним взаимодействует - школьник или геолог, а так же и от того, как происходит взаимодействие: проводится ли простой осмотр, или рентгеноструктурный анализ, или химический анализ, или другие виды анализа.

      Полученные из информационных кодов данные интерпретируются объектом. В процессе передачи знаковой информации передается физическая информация, а в результате интерпретации - взаимодействия с содержимым памяти интерпретатора, возникает (индуцируется) образная информация. Здесь мы подошли к тому, что при определенном уровне развития объектов им становятся присущи свойства информационного моделирования своих взаимодействий с внешней средой, которое используется для выбора наиболее целесообразного для них поведения. Таким образом, правомерно говорить о наличии внутри объекта информационной модели внешней среды и его взаимодействия с ней.
Информационная модель внешней среды объекта, это структурированная совокупность трех компонент:
1) воспринятой объектом информации, запомненной в виде данных;
2) информационных шаблонов действий объекта, как структурированной информации, хранящейся в памяти;
3) методов сопоставления первых двух компонент в соответствии с комплексом целей объекта.

      Информационные системы.
Терминология, используемая при работе с информационными системами:
Данные представляют собой описания объектов, явлений, фактов. Это структуросоставляющее понятие, множество записей на конкретных языках и интерпретации их как целостных образований. Интенсиональные данные (обобщающие данные) описывают абстрактные объекты, события и т.п. Экстенсиональные данные представляют собой данные, характеризующие конкретные объекты по классификации, существующей в данной предметной области.
Интерпретация данных - совокупность предположений о характере данных, полученных в результате измерения и подлежащих анализу.
Знание является изменяющейся во времени совокупностью именованных отношений между данными. Это структурообразующее понятие, процесс изменения связей данных.
Общение на уровне знания должно предопределять возможность двум и более системам равнопонятного (воспринимаемого в одном контексте) использования взаимосвязанной информации на языке, способном нести и передавать данные и знание о предметной области.

      Уровни представления знаний:
- текстовые записи с фиксированной на уровне языка системой отношений между ними (например, табличная запись). Здесь знание определяется текущей структурой связей между данными;
- данные, формализованные на уровне языка формул и передаточных функций, содержат в себе знание как формализованные правила и аппарат производства выводов;
- знание и данные существующие в форме языковой модели (модели, выделяющей из реальной системы нечто, признаваемое существенным) на основе использования контекстно-независимых языков;
- знание и данные существующие в форме языковой модели предметной области (модели, во многих, если не во всех случаях неотличимой от самой предметной области, существующей как языковое описание) и как описание составляющих этой системы на уровне контекстно-зависимого языка.

      Можно ли представить себе знание без данных?  Да, это возможно, примером является любая незаполненная таблица или обыкновенный резонансный фильтр. А вот можно ли представить себе данные без структуры? Это маловероятно, кроме какого-нибудь вырожденного случая, так как данные упорядочены уже потому, что принадлежат системе, выделены из нее с какой-то определенной целью, упорядочены уже потому, что любая их структура или последовательность является упорядочением.
     В информационной системе обычно выделяют три типа знания как три типа отношений между данными: синтаксические, семантические и прагматические. Знание синтаксического типа характеризует структуру потока информации, которая не зависит от смысла и содержания используемых при этом понятий. Семантическое знание рассматривается как структура, образующая текущий контекст. Оно содержат информацию, непосредственно связанную с текущими значениями и смыслом описываемых понятий и предопределяет состояние связей данных в информационной базе. Прагматическое знание предопределяет наиболее вероятные связи, описывающие данные с точки зрения решаемой задачи (обобщенный или объективный контекст), например, с учетом действующих в данной задаче специфических критериев и соглашений.
     С инженерной точки зрения, синтаксическая, семантическая и прагматическая стороны знания являются различными связями одного или группы терминов (данных) с другими записями в информационной базе. Не касаясь уровня физической организации работы с совокупностью данные - знание, на логическом уровне выделим понятие "информационной базы", то есть базы, в которой данные хранятся в совокупности со своими всевозможными связями. На этом уровне представления любая информационная база состоит из связанных базы данных, базы знания и инструмента управления. В определенных условиях такая конструкция может выступать и как субъект, и как объект. Не имеет смысла вопрос о старшинстве базы данных и базы знания или о их сравнительном анализе. Это логические объекты разной природы, взаимно дополняющие друг друга. Вообще говоря, понятие правильной или объективной интерпретации данных (правильной связи данных) в определение знания вводить нельзя по простой причине - их упорядочение или структура связей постоянно меняются в зависимости от контекста входного информационного потока и, в этом смысле, любое упорядочение данных может быть правильным в некотором текущем контексте.

      Роберто Бартини, рассматривая некоторые космологические построения, указывал, что из-за несоответствия физического квантованного мира и математического аппарата дифференциальных уравнений, могут возникать "… соотношения неопределенности, гораздо большие, чем квантовое" и называл их "информационными соотношениями неопределенности". Т.е. помимо физической неразличимости объективно существует и информационная неразличимость, неразличимость в пределах шага изменения логической структуры, т.е. "соотношение неопределенности", происходящее от способа действия аппарата представления (но, не от его точности, т.е. не от его разрядной сетки). К сожалению, ряд публикаций, относящихся к 1927-29 гг. по-видимому, безвозвратно утрачен (вместо них "благодарные потомки" бережно сохранили многотомники " трудов корифея всех наук"  И.Сталина).
     Однако, можно предположить, что по Р.Бартини - соотношение неопределенности действует повсеместно, при использовании любого информационного механизма, независимо от разрешения (разрядной сетки) используемой элементной базы, т.к. с такого рода квантованием оно не связано. В общем случае принцип информационной неопределенности можно сформулировать как невозможность с любой наперед заданной точностью описать реальный объект или процесс в рамках одной конкретной логической структуры, по причине несоответствия непрерывности реальных объектов и процессов и дискретности логических структур, с помощью которых они описываются (моделируются). Следствием принципа информационной неопределенности является утверждение, что адекватное описание реальных объектов и процессов возможно только с использованием разнородных логических структур. Иначе говоря описание, данное в рамках одной теории (или одной науки) заведомо неточно. Только комплексный подход с использованием логического и математического аппарата разных наук приближает нас к реальности.

       В заключение рассмотрим вопрос о применимости термина "энтропия" к анализу информационных процессов. В основу теории передачи знаковой информации положен предложенный К.Шенноном метод исчислений количества новой (непредсказуемой) и избыточной (предсказуемой) информации, содержащейся в сообщениях, передаваемых по каналам технической связи. Вопреки мнению самого К.Шеннона, предостерегавшего ученых против поспешного распространения предложенного им метода за пределы прикладных задач техники связи, этот метод стал находить все более широкое применение в исследованиях и физических, и биологических, и социальных систем. Причиной тому послужила, предложенная Л.Бриллюэном, идея взаимосвязи информации и физической энтропии, т.к. для исчисления количества информации Шеннон предложил использовать заимствованную из статистической термодинамики вероятностную функцию энтропии. Многие ученые (начиная с самого К.Шеннона) склонны рассматривать такое заимствование как чисто формальный прием. Тем не менее, Л.Бриллюэн предположил, что между вычисленным согласно Шеннону количеством информации и физической энтропией существует не формальная, а содержательная связь. 

     По мнению апологетов трактовки информации как степени упорядоченности структуры, данный вывод оказывается в равной мере справедливым для таких несходных по своей природе систем, как газы, кристаллы, письменные тексты, биологические организмы или сообщества и других систем. При этом, если для газа или кристалла, при вычислении энтропии, сравнивается только микросостояние (т.е. состояние атомов и молекул) и макросостояние этих систем (т.е. газа или кристалла как целого), то для систем иной природы (биологических, интеллектуальных, социальных) вычисление энтропии может производиться на том или ином произвольно выбранном уровне. При этом вычисляемое значение энтропии рассматриваемой системы и количество информации, характеризующей степень упорядоченности данной системы и равное разности между максимальным и реальным значением энтропии, будет зависеть от распределения вероятности состояний элементов нижележащего уровня, т.е. тех элементов, которые в своей совокупности образуют эти системы.

     В реальности, причины возникновения исследуемого порядка всегда остаются за пределами компетенции статистических методов. Наука, вооруженная статистическими методами, исследует не само действие порождающих исследуемый порядок причин, а лишь его результат. Любая попытка с помощью энтропийного анализа делать выводы о содержательной стороне письменных текстов, равносильна суждению о достоинствах и недостатках какого-то музыкального произведения на основании того, как часто создававший его композитор прибегал к помощи ноты "ре" или "фа". Подобным способом можно оценить принадлежность сочинения тому или иному автору, но опять-таки оценить вероятностно, т.е. эта оценка будет справедлива не для конкретного автора, а только в случае распределения большого количества текстов по большому количеству авторов. Не стоит забывать, что по определению, вероятность события А равна числу событий n(А), реализованных в испытаниях, деленному на общее количество испытаний. P(A)=n(A)/N

     Подсчитанная по формуле Шеннона-Хартли величина энтропии текста, выражаемая количеством бит отражает только лишь одно свойство этого текста - степень его отклонения от состояния, при котором все буквы имели бы равную вероятность, а текст, превратился бы в бессмысленный набор букв. Проводимый, на уровне отдельных букв, статистический анализ распределения вероятностей букв и последующий расчет количества информации и величины энтропии, позволяют только предсказывать появление букв (или других символов) раньше, чем они будут сообщены по линии связи. Таким способом удается в той или иной степени "разгрузить" предназначенный для передачи сообщений канал и только, но кроме букв тексты содержат слова, а слова имеют смысл, который понятен только тем, кто знает данный язык. Все это не учитывается.

      Кроме того, в рамках энтропийной модели предполагается, например в биологии, что источник адаптационных изменений второстепенных признаков при условии сохранения тех основных признаков, по которым осуществляется различение биологических форм находится на недоступных рациональной науке самых высоких уровнях иерархической информационной структуры. Если за нижний уровень иерархии информационно-энтропической модели принять неорганические системы, то следующую ступень иерархической лестницы следует соотнести с биологическими системами. Над ними находится следующий уровень более сложно организованных интеллектуальных систем. А самым высоким оказывается тот недоступный рациональному постижению уровень (логос), на котором и формируются правила, которым подчиняются все нижележащие уровни, то есть весь доступный нашим наблюдениям мир. В итоге опять приходим к понятию "Творец", опять постулируется существование чего-то, непостижимого для разума, но влияющего на материальные объекты.

      Рассмотрим еще несколько терминов, используемых при исследовании информационных процессов. Под термином "структурная информация" обычно понимают степень организованности - "…любая система содержит в себе столько информации, сколько ее надо было бы внести в систему, чтобы последняя могла перейти из некоторого первоначального состояния в заданное организованное состояние". Здесь используется негэнтропийная трактовка информации, а это направление, как мы уже говорили, бесперспективно. Но есть и довольно перспективное направление исследований, в основе которого лежат работы И.Брехмана. В его работах впервые встречается упоминание о структурной информации (1980, 1982). Им было показано, что воздействие на организм и калорийность продукта количественно и качественно не связаны между собой. Наименьшей структурной информацией, с его точки зрения, обладают такие продукты как чистый спирт, рафинированный сахар и большинство фармакологических препаратов, а большое количество структурной информации содержится в необработанных, естественных продуктах питания. Это направление развивается и в наше время, например при анализе активности гомеопатических препаратов. В современных исследованиях показано, что лекарственная активность препаратов коррелирует с параметрами их структурной динамики, и можно говорить, что носителем активности препаратов в значительной степени является динамическое состояние среды. Динамическая структура жидкой воды и гомеопатического препарата определяет соответствующую специфическую структуру этих сред. 

     Как и все прочие знания, накопленные человечеством, знания об информационных процессах могут быть использованы как на благо всего человечества, так и во вред ему, но на благо определенной группе лиц. Использование знаний об информационных процессах может вести к появлению новых форм эксплуатации менее развитых государств за счет неравноценного информационного обмена с ними и контроля над их информационными потоками (информационный империализм). При этом, появляется возможность использовать в корыстных целях обострение противоречия между производством огромного количества информации (информационным взрывом) и трудностью доступа ко всей этой информации для потребителей (информационным голодом). Кроме того, для открытых систем установлено, что оптимально устойчивой структурой сообщества свободно взаимодействующих систем является система уровня сложности на единицу ниже образующих. Так, например общество представляет собой информационную систему, уровень сложности которой на единицу ниже уровня сложности отдельного человека. При изучении процессов в обществе это обстоятельство необходимо учитывать.


На Главную