Знаковая информация. Структура комплексного
информационного процесса представляет собой совокупность
последовательных фаз: Терминология, используемая при
работе со знаковой информацией: Передача знаковой
информации. Терминология, используемая
при описании процессов передачи информации: Основная трудность при
изучении информатики - прикладной науки, изучающей процессы передачи
знаковой информации, возникает из-за смешивания понятий "информация" и
"сообщение". В одних случаях эти понятия рассматриваются как синонимы, а
в других случаях - как различные понятия. Мы же всегда будем четко
разграничивать как области применимости этих понятий, так и
представления, соответствующие каждому из этих понятий. Сообщения характеризуются
следующими свойствами: В информатике, как правило,
измерению подвергают свойства сообщений, представленных дискретными
сигналами. При этом различают следующие подходы: Следует подчеркнуть, что всегда можно указать пару крайних элементов в цепи передачи сигналов: переданный сигнал (сообщение), то есть состояние источника информации, и принятый сигнал, то есть состояние объекта, доступного для непосредственного наблюдения получателем. Состояние любого объекта можно математически описать при помощи набора чисел (параметров). Поскольку значения этих параметров обычно изменяются со временем, то математической моделью сигнала служит функция времени. Наиболее распространенной математической моделью сигнала, допускающей строгое количественное описание, является случайная функция. При этом конкретной реализации сигнала, возникшей в результате опыта, ставится в соответствие конкретная реализация этой случайной функции. Простейшая модель сигнала - случайная величина X(t). Для описания помехи используют те же модели, что и для описания сигнала. Принципиальное отличие сигналов от помехи сводится к тому, что помеха не имеет информативных параметров (не содержит информации). Для описания процесса передачи информации можно использовать математическую модель в виде множества случайных функций (ансамбль). При этом математическая модель должна учитывать объективное свойство информации - зависимость не только от свойств источника, но и зависимость от свойств приемника. То есть учитывать двойственную природу информации субъективно - объективную (информация существует объективно, но зависит от наблюдателя). Возьмем в качестве примера кусок камня. Информация об одном и том же куске камня, полученная в результате взаимодействия с ним, различна, в зависимости от того, кто с ним взаимодействует - школьник или геолог, а так же и от того, как происходит взаимодействие: проводится ли простой осмотр, или рентгеноструктурный анализ, или химический анализ, или другие виды анализа. Полученные из
информационных кодов данные интерпретируются объектом. В процессе
передачи знаковой информации передается физическая информация, а в
результате интерпретации - взаимодействия с содержимым памяти
интерпретатора, возникает (индуцируется) образная информация. Здесь мы
подошли к тому, что при определенном уровне развития объектов им
становятся присущи свойства информационного моделирования своих
взаимодействий с внешней средой, которое используется для выбора
наиболее целесообразного для них поведения. Таким образом, правомерно
говорить о наличии внутри объекта информационной модели внешней среды и
его взаимодействия с ней. Информационные системы. Уровни представления
знаний: Можно ли представить себе
знание без данных? Да, это возможно, примером является любая
незаполненная таблица или обыкновенный резонансный фильтр. А вот можно
ли представить себе данные без структуры? Это маловероятно, кроме
какого-нибудь вырожденного случая, так как данные упорядочены уже
потому, что принадлежат системе, выделены из нее с какой-то определенной
целью, упорядочены уже потому, что любая их структура или
последовательность является упорядочением. Роберто Бартини,
рассматривая некоторые космологические построения, указывал, что из-за
несоответствия физического квантованного мира и математического аппарата
дифференциальных уравнений, могут возникать "… соотношения
неопределенности, гораздо большие, чем квантовое" и называл их
"информационными соотношениями неопределенности". Т.е. помимо физической
неразличимости объективно существует и информационная неразличимость,
неразличимость в пределах шага изменения логической структуры, т.е.
"соотношение неопределенности", происходящее от способа действия
аппарата представления (но, не от его точности, т.е. не от его разрядной
сетки). К сожалению, ряд публикаций, относящихся к 1927-29 гг.
по-видимому, безвозвратно утрачен (вместо них "благодарные потомки"
бережно сохранили многотомники " трудов корифея всех наук"
И.Сталина). В заключение рассмотрим вопрос о применимости термина "энтропия" к анализу информационных процессов. В основу теории передачи знаковой информации положен предложенный К.Шенноном метод исчислений количества новой (непредсказуемой) и избыточной (предсказуемой) информации, содержащейся в сообщениях, передаваемых по каналам технической связи. Вопреки мнению самого К.Шеннона, предостерегавшего ученых против поспешного распространения предложенного им метода за пределы прикладных задач техники связи, этот метод стал находить все более широкое применение в исследованиях и физических, и биологических, и социальных систем. Причиной тому послужила, предложенная Л.Бриллюэном, идея взаимосвязи информации и физической энтропии, т.к. для исчисления количества информации Шеннон предложил использовать заимствованную из статистической термодинамики вероятностную функцию энтропии. Многие ученые (начиная с самого К.Шеннона) склонны рассматривать такое заимствование как чисто формальный прием. Тем не менее, Л.Бриллюэн предположил, что между вычисленным согласно Шеннону количеством информации и физической энтропией существует не формальная, а содержательная связь. По мнению апологетов трактовки информации как степени упорядоченности структуры, данный вывод оказывается в равной мере справедливым для таких несходных по своей природе систем, как газы, кристаллы, письменные тексты, биологические организмы или сообщества и других систем. При этом, если для газа или кристалла, при вычислении энтропии, сравнивается только микросостояние (т.е. состояние атомов и молекул) и макросостояние этих систем (т.е. газа или кристалла как целого), то для систем иной природы (биологических, интеллектуальных, социальных) вычисление энтропии может производиться на том или ином произвольно выбранном уровне. При этом вычисляемое значение энтропии рассматриваемой системы и количество информации, характеризующей степень упорядоченности данной системы и равное разности между максимальным и реальным значением энтропии, будет зависеть от распределения вероятности состояний элементов нижележащего уровня, т.е. тех элементов, которые в своей совокупности образуют эти системы. В реальности, причины возникновения исследуемого порядка всегда остаются за пределами компетенции статистических методов. Наука, вооруженная статистическими методами, исследует не само действие порождающих исследуемый порядок причин, а лишь его результат. Любая попытка с помощью энтропийного анализа делать выводы о содержательной стороне письменных текстов, равносильна суждению о достоинствах и недостатках какого-то музыкального произведения на основании того, как часто создававший его композитор прибегал к помощи ноты "ре" или "фа". Подобным способом можно оценить принадлежность сочинения тому или иному автору, но опять-таки оценить вероятностно, т.е. эта оценка будет справедлива не для конкретного автора, а только в случае распределения большого количества текстов по большому количеству авторов. Не стоит забывать, что по определению, вероятность события А равна числу событий n(А), реализованных в испытаниях, деленному на общее количество испытаний. P(A)=n(A)/N. Подсчитанная по формуле Шеннона-Хартли величина энтропии текста, выражаемая количеством бит отражает только лишь одно свойство этого текста - степень его отклонения от состояния, при котором все буквы имели бы равную вероятность, а текст, превратился бы в бессмысленный набор букв. Проводимый, на уровне отдельных букв, статистический анализ распределения вероятностей букв и последующий расчет количества информации и величины энтропии, позволяют только предсказывать появление букв (или других символов) раньше, чем они будут сообщены по линии связи. Таким способом удается в той или иной степени "разгрузить" предназначенный для передачи сообщений канал и только, но кроме букв тексты содержат слова, а слова имеют смысл, который понятен только тем, кто знает данный язык. Все это не учитывается. Кроме того, в рамках энтропийной модели предполагается, например в биологии, что источник адаптационных изменений второстепенных признаков при условии сохранения тех основных признаков, по которым осуществляется различение биологических форм находится на недоступных рациональной науке самых высоких уровнях иерархической информационной структуры. Если за нижний уровень иерархии информационно-энтропической модели принять неорганические системы, то следующую ступень иерархической лестницы следует соотнести с биологическими системами. Над ними находится следующий уровень более сложно организованных интеллектуальных систем. А самым высоким оказывается тот недоступный рациональному постижению уровень (логос), на котором и формируются правила, которым подчиняются все нижележащие уровни, то есть весь доступный нашим наблюдениям мир. В итоге опять приходим к понятию "Творец", опять постулируется существование чего-то, непостижимого для разума, но влияющего на материальные объекты. Рассмотрим еще несколько терминов, используемых при исследовании информационных процессов. Под термином "структурная информация" обычно понимают степень организованности - "…любая система содержит в себе столько информации, сколько ее надо было бы внести в систему, чтобы последняя могла перейти из некоторого первоначального состояния в заданное организованное состояние". Здесь используется негэнтропийная трактовка информации, а это направление, как мы уже говорили, бесперспективно. Но есть и довольно перспективное направление исследований, в основе которого лежат работы И.Брехмана. В его работах впервые встречается упоминание о структурной информации (1980, 1982). Им было показано, что воздействие на организм и калорийность продукта количественно и качественно не связаны между собой. Наименьшей структурной информацией, с его точки зрения, обладают такие продукты как чистый спирт, рафинированный сахар и большинство фармакологических препаратов, а большое количество структурной информации содержится в необработанных, естественных продуктах питания. Это направление развивается и в наше время, например при анализе активности гомеопатических препаратов. В современных исследованиях показано, что лекарственная активность препаратов коррелирует с параметрами их структурной динамики, и можно говорить, что носителем активности препаратов в значительной степени является динамическое состояние среды. Динамическая структура жидкой воды и гомеопатического препарата определяет соответствующую специфическую структуру этих сред. Как и все прочие знания,
накопленные человечеством, знания об информационных процессах могут быть
использованы как на благо всего человечества, так и во вред ему, но на
благо определенной группе лиц. Использование знаний об информационных
процессах может вести к появлению новых форм эксплуатации менее развитых
государств за счет неравноценного информационного обмена с ними и
контроля над их информационными потоками (информационный империализм).
При этом, появляется возможность использовать в корыстных целях
обострение противоречия между производством огромного количества
информации (информационным взрывом) и трудностью доступа ко всей этой
информации для потребителей (информационным голодом). Кроме того, для
открытых систем установлено, что оптимально устойчивой структурой
сообщества свободно взаимодействующих систем является система уровня
сложности на единицу ниже образующих. Так, например общество
представляет собой информационную систему, уровень сложности которой на
единицу ниже уровня сложности отдельного человека. При изучении
процессов в обществе это обстоятельство необходимо учитывать.
|