Измерение информации синтаксический семантический и прагматический подходы. Синтаксическая мера информации. Информация и данные

Тема 2. Основы представления и обработки информации в компьютере

Литература

1. Информатика в экономике: Учебное пособие/Под ред. Б.Е. Одинцова, А.Н. Романова. – М.: Вузовский учебник, 2008.

2. Информатика: Базовый курс: Учебное пособие/Под ред. С.В. Симоновича. – СПб.: Питер, 2009.

3. Информатика. Общий курс: Учебник/Соавт.:А.Н. Гуда, М.А. Бутакова, Н.М. Нечитайло, А.В. Чернов; Под общ. ред. В.И. Колесникова. – М.: Дашков и К, 2009.

4. Информатика для экономистов: Учебник/Под ред. Матюшка В.М. - М.: Инфра-М, 2006.

5. Экономическая информатика: Введение в экономический анализ информационных систем.- М.: ИНФРА-М, 2005.

Меры информации (синтаксическая, семантическая, прагматическая)

Для измерения информации могут применяться различные подходы, но наибольшее распространение получили статистический (вероятностный), семантический и прагматический методы.

Статистический (вероятностный) метод измерения информации был разработан К. Шенноном в 1948 году, который предложил количество информации рассматривать как меру неопределенности состояния системы, снимаемой в результате получения информации. Количественно выраженная неопределенность получила название энтропии. Если после получения некоторого сообщения наблюдатель приобрел дополнительную информацию о системе Х, то неопределенность уменьшилась. Дополнительно полученное количество информации определяется как:

где - дополнительное количество информации о системе Х , поступившее в форме сообщения;

Начальная неопределенность (энтропия) системы X ;

Конечная неопределенность (энтропия) системы X, наступившая после получения сообщения.

Если система X может находиться в одном из дискретных состояний, количество которых n , а вероятность нахождения системы в каждом из них равна и сумма вероятностей всех состояний равна единице , то энтропия вычисляется по формуле Шеннона:

где - энтропия системы Х;

а - основание логарифма, определяющее единицу измерения информации;

n – количество состояний (значений), в котором может находится система.

Энтропия величина положительная, а так как вероятности всегда меньше единицы, а их логарифм отрицательный, поэтому знак минус в формуле К.Шеннона делает энтропию положительной. Таким образом, за меру количества информации принимается та же энтропия, но с обратным знаком.

Взаимосвязь информации и энтропии можно понимать следующим образом: получение информации (ее увеличение) одновременно означает уменьшение незнания или информационной неопределенности (энтропии)

Таким образом, статистический подход учитывает вероятность появления сообщений: более информативным считается то сообщение, которое менее вероятно, т.е. менее всего ожидалось. Количество информации достигает максимального значения, если события равновероятны.

Р. Хартли предложил следующую формулу для измерения информации:

I=log 2 n ,

где n - количество равновероятных событий;

I – мера информации в сообщении о наступлении одного из n событий

Измерение информации выражается в ее объёме. Чаще всего это касается объёма компьютерной памяти и объёма данных, передаваемых по каналам связи. За единицу принято такое количество информации, при котором неопределённость уменьшается в два раза, такая единица информации получила название бит .

Если в качестве основания логарифма в формуле Хартли используется натуральный логарифм (), то единицей измерения информации является нат (1 бит = ln2 ≈ 0,693 нат). Если в качестве основания логарифма используется число 3, то - трит , если 10, то - дит (хартли).

На практике чаще применяется более крупная единица - байт (byte ), равный восьми битам. Такая единица выбрана потому, что с ее помощью можно закодировать любой из 256 символов алфавита клавиатуры компьютера (256=2 8).

Кроме байтов информация измеряется полусловами (2 байта), словами (4 байта) и двойными словами (8 байт). Широко используются также еще более крупные единицы измерения информации:

1 Килобайт (Кбайт - kilobyte ) = 1024 байт = 2 10 байт,

1 Мегабайт (Мбайт - megabyte ) = 1024 Кбайт = 2 20 байт,

1 Гигабайт (Гбайт - gigabyte ) = 1024 Мбайт = 2 30 байт.

1 Терабайт (Тбайт - terabyte ) = 1024 Гбайт = 2 40 байт,

1 Петабайт (Пбайт - petabyte ) = 1024 Тбайт = 2 50 байт.

В 1980 году российский математик Ю. Манин предложил идею построения квантового компьютера, в связи с чем появилась такая единица информации как кубит (quantum bit, qubit) – «квантовый бит» – мера измерения объема памяти в теоретически возможном виде компьютера, использующем квантовые носители, например - спины электронов. Кубит может принимать не два различных значения ("0" и "1"), а несколько, соответствующих нормированным комбинациям двух основных состояний спина, что дает большее число возможных сочетаний. Так, 32 кубита могут закодировать около 4 млрд состояний.

Семантический подход. Синтаксической меры не достаточно, если требуется определить не объем данных, а количество нужной в сообщении информации. В этом случае рассматривается семантический аспект, позволяющий определить содержательную сторону сведений.

Для измерения смыслового содержания информации можно воспользоваться тезаурусом ее получателя (потребителя). Идея тезаурусного метода была предложена Н. Винером и развита нашим отечественным ученым А.Ю. Шрейдером.

Тезаурусом называется совокупность сведений , которыми располагает получатель информации. Соотнесение тезауруса с содержанием поступившего сообщения позволяет выяснить, насколько оно снижает неопределенность..

Зависимость объема смысловой информации сообщения от тезауруса получателя

Согласно зависимости, представленной на графике, при отсутствии у пользователя какого-либо тезауруса (знаний о существе поступившего сообщении, то есть =0), или наличия такого тезауруса, который не изменился в результате поступления сообщения (), то объем семантической информации в нем равен нулю. Оптимальным будет такой тезаурус (), при котором объем семантической информации будет максимальным (). Например, семантической информации в поступившем сообщении на незнакомом иностранном языке будет ноль , но и такая же ситуация будет в том случае, если сообщение уже не является новостью, так как пользователю уже все известно.

Прагматическая мера информации определяет ее полезность в достижении потребителем своих целей. Для этого достаточно определить вероятность достижения цели до, и после получения сообщения и сравнить их. Ценность информации (по А.А. Харкевичу) рассчитывается по формуле:

где - вероятность достижения цели до получения сообщения;

Вероятность достижения цели поле получения сообщения;

Уровни и структура экономической информации. Синтаксический, семантический и прагматический уровни экономической информации. Структурные элементы экономической информации - реквизиты, показатели, составные единицы информации (СЕИ), документы, массивы и базы данных

Предметом рассмотрения настоящего курса является маркетинговая информация как составная часть экономической информации.

Экономическая информация – это совокупность сведений, характеризующих производственные отношения в обществе. Эти сведения можно фиксировать, хранить, передавать, обрабатывать и использовать в процессах планирования, учета, контроля и анализа экономической системы или процесса.

Экономическая информация включает различные сведения о составе и значениях трудовых, материальных и финансовых ресурсов и состоянии объекта управления на некоторый момент времени. Экономическая информация позволяет получить сведения о деятельности предприятий и организаций через различные экономические показатели. Сведения из любой предметной области обладают рядом характерных свойств.

Отметим особенности экономической информации :

1. Многомерность – большое количество и объем данных, без которых невозможно качественное управление экономическими процессами.

2. Численное отображение - экономическая информация, как правило, отражает производственно-хозяйственную деятельность с помощью системы натуральных и стоимостных показателей. Они выражаются с помощью числовых данных, поэтому при работе с экономической информацией очень широко используются числовые типы данных и методы работы с этими типами.

3. Периодичность – для большинства производственных и хозяйственных процессов характерна циклическая повторяемость составляющих их стадий (месяц, квартал, год), и соответственно характерна повторяемость информации, отражающей на этих стадиях процессы.

4. Графическое и табличное представление экономической информации. Экономические документы имеют чаще всего вид таблиц и графиков, поэтому для обработки экономической информации очень широко используются табличные процессоры.

5. Многообразие источников и потребителей.

Эти особенности экономической информации предопределяют научно-техническую необходимость и экономическую целесообразность использования средств информационных технологий при ее сборе, накоплении, передаче и обработке, что в свою очередь требует от специалистов умения определять структуру и объемы перерабатываемой информации.

В процессе использования в экономических и управленческих системах информация проходит несколько фаз существования :

Ассимилированная информация - представление сообщений в сознании человека, наложенное на систему его понятий и оценок;


Документированная информация - сведения, зафиксированные в знаковой форме на каком-либо физическом носителе;

Передаваемая информация - сведения, рассматриваемые в момент их передачи от источника к приемнику получения. В процессе передачи информация проходит через ряд преобразователей: кодирующие и декодирующие устройства, вычислительные машины, ведущие обработку информации, коммуникационные системы, вычислительные сети и т. п.

Информация представляет собой данные, которые циркулируют между отдельными структурными элементами экономической системы или между самими системами. Выделяют различные уровни рассмотрения информации: синтаксический, семантический и прагматический.

Синтаксический уровень изучает структуру знаков и отношений между ними в информационных сообщениях. На этом уровне анализируется структура символов и знаков в документах, форматах реквизитов, структуре массивов информации и т. п. На синтаксическом уровне используют термин «данные» и объем данных связан с количеством экземпляров документов, числом записей в базе данных и т. п. Полученные входные данные являются основой для обработки информации, получения выходных данных, служащих основой для принятия решения.

Семантический уровень определяет общее смысловое содержание информации, и дает возможность установить взаимосвязи между отдельными элементами информации. Семантикаизучает отношения между знаками и обозначаемыми ими объектами, не касаясь получателя знаков. Она изучает общие закономерности построения любых знаковых систем, рассматриваемых в синтактике. Различают семантику логическую и структурную. Логическая семантика рассматривает знаковые системы как средства выражения смысла, установление зависимости между структурой знакосочетаний и их выразительными возможностями. Структурная семантика - раздел структурной лингвистики, посвященный описанию смысла языковых выражений и операций над ним. Семантический анализ - совокупность операций, служащих для представления смысла текста на естественном языке в виде записи на некотором формализованном семантическом (смысловом) языке. Семантический анализ моделирует процесс понимания текста человеком. Информативность сообщения тем выше, чем более определенной становится состояние системы для получателя информации. На семантическом уровне содержательность информации основана на тезаурусе системы.

Тезаурус (словарь) включает в себя набор основных понятий, терминов, определений, согласованных структур данных логического уровня представления в базах данных и т. п. При этом информативность сообщений во многом зависит от способности получателя расширить свой тезаурус.

Прагматический уровень определяет ценность информации для принятия управленческого решения, для системы управления в целом. Прагматика изучает восприятие осмысленных выражений знаковой системы в соответствии с разрешающими способностями воспринимающего. Теоретическая прагматика рассматривает некоторые гипотезы о свойствах и строении интеллекта, которые формулируются на основе данных нейрофизиологии, экспериментальной психологии, бионики, теории персептронов и т.д. Прикладная прагматика включает в себя исследования, посвященные эмпирическому анализу понимания людьми различных языковых выражений, изучению ритмики и стихосложения, а также разработке информационно-поисковых систем.

Таким образом, выделяют три уровня рассмотрения любого информационного сообщения, три уровня абстрагирования от особенностей конкретных актов обмена информацией. На прагматическом уровне для выявления полезности информации рассматривают все элементы информационного обмена. На семантическом уровне, отвлекаясь от получателя информации, конечной целью изучения является смысловое значение сообщения, его адекватность описываемым объектам. Наиболее узким является синтактический уровень - уровень изучения только самих знаков и соотношений между ними.

Задача экономической информации - давать адекватное описание некоторого состояния рассматриваемой экономической системы или объекта. Поэтому к экономической информации предъявляется ряд требований.

Полнота информации для принятия решений и реализации функций управления. Полнота определяется по отношению к управленческим функциям. Информация может быть неполной по объему и составу сведений. Недостаток информации не позволяет выработать верного управленческого решения.Полнота информации означает ее достаточность для понимания и принятия решений.

Точность и достоверность информации. Данные характеристики определяют степень приближения значения информации к истинному значению. Достоверность отражает вероятностную оценку информации. Существуют определенные уровни точности использовании получаемых данных.

Ценность информации зависит от того, какие задачи решаются с ее помощью.

Актуальность и оперативность. Актуальностьпоказывает степень соответствия реального состояния экономического объекта и состояния информационной системы. Отсутствие своевременных изменений в информации, отражаемой в информационной системе, приводит к нарушению процессов управления. Оперативность определяет скорость внесения в информационную систему изменений информации о состоянии предметной области.Актуальнуюинформацию важно иметь при работе в постоянно изменяющихся условиях.

Воспринимаемость - информация становится ясной и понятной, если она выражена языком, понятным тем объектам, которым она предназначена.

УРОВНИ ПРОБЛЕМ ПЕРЕДАЧИ ИНФОРМАЦИИ

При реализации информационных процессов всегда происходит перенос информации в пространстве и времени от источника ин­формации к приемнику (получателю). При этом для передачи ин­формации используют различные знаки или символы, например естественного или искусственного (формального) языка, позволя­ющие выразить ее в некоторой форме, называемой сообщением.

Сообщение - форма представления информации в виде со­вокупности знаков (символов), используемая для передачи.

Сообщение как совокупность знаков с точки зрения семиотики (от греч. semeion - знак, признак) - науки, занимающейся иссле­дованием свойств знаков и знаковых систем, - может изучаться на трех уровнях :

1) синтаксическом, где рассматриваются внутренние свойства сообщений, т. е. отношения между знаками, отражающие структуру данной знаковой системы. Внешние свойства изу­чают на семантическом и прагматическом уровнях;

2) семантическом, где анализируются отношения между знака­ми и обозначаемыми ими предметами, действиями, качест­вами, т. е. смысловое содержание сообщения, его отношение к источнику информации;

3) прагматическом, где рассматриваются отношения между со­общением и получателем, т. е. потребительское содержание сообщения, его отношение к получателю.

Таким образом, учитывая определенную взаимосвязь проблем передачи информации с уровнями изучения знаковых систем, их разделяют на три уровня: синтаксический, семантический и праг­матический.

Проблемы синтаксического уровня касаются создания теоре­тических основ построения информационных систем, основные показатели функционирования которых были бы близки к предель­но возможным, а также совершенствования существующих систем с целью повышения эффективности их использования. Это чисто технические проблемы совершенствования методов передачи со­общений и их материальных носителей - сигналов. На этом уров­не рассматривают проблемы доставки получателю сообщений как совокупности знаков, учитывая при этом тип носителя и способ представления информации, скорость передачи и обработки, раз­меры кодов представления информации, надежность и точность преобразования этих кодов и т. п., полностью абстрагируясь от смыслового содержания сообщений и их целевого предназначения. На этом уровне информацию, рассматриваемую только с синтак­сических позиций, обычно называют данными, так как смысловая сторона при этом не имеет значения.

Современная теория информации исследует в основном пробле­мы именно этого уровня. Она опирается на понятие «количество информации», являющееся мерой частоты употребления знаков, которая никак не отражает ни смысла, ни важности передаваемых сообщений. В связи с этим иногда говорят, что современная теория информации находится на синтаксическом уровне.

Проблемы семантического уровня связаны с формализацией и учетом смысла передаваемой информации, определения степени соответствия образа объекта и самого объекта. На данном уровне анализируются те сведения, которые отражает информация, рас­сматриваются смысловые связи, формируются понятия и представ­ления, выявляется смысл, содержание информации, осуществля­ется ее обобщение.

Проблемы этого уровня чрезвычайно сложны, так как смысло­вое содержание информации больше зависит от получателя, чем от семантики сообщения, представленного на каком-либо языке.

На прагматическом уровне интересуют последствия от получе­ния и использования данной информации потребителем. Пробле­мы этого уровня связаны с определением ценности и полезности использования информации при выработке потребителем решения для достижения своей цели. Основная сложность здесь состоит в том, что ценность, полезность информации может быть совершен­но различной для различных получателей и, кроме того, она зави­сит от ряда факторов, таких, например, как своевременность ее до­ставки и использования. Высокие требования в отношении скорости доставки информации часто диктуются тем, что управляющие воз­действия должны осуществляться в реальном масштабе времени, т. е. со скоростью изменения состояния управляемых объектов или процессов. Задержки в доставке или использовании информации могут иметь катастрофические последствия.

При реализации информационных процессов всегда происходит перенос информации в пространстве и времени от источника информации к приемнику (получателю). При этом для передачи информации используют различные знаки или символы, например естественного или искусственного (формального) языка, позволяющие выразить ее в некоторой форме, называемой сообщением.

Сообщение – форма представления информации в виде совокупности знаков (символов), используемая для передачи.

Сообщение как совокупность знаков с точки зрения семиотики (от греч. setneion - знак, признак ) – науки, занимающейся исследованием свойств знаков и знаковых систем, - может изучаться на трех уровнях:

1) синтаксическом , где рассматриваются внутренние свойства сообщений, т. е. отношения между знаками, отражающие структуру данной знаковой системы. Внешние свойства изучают на семантическом и прагматическом уровнях. На этом уровне рассматривают проблемы доставки получателю сообщений как совокупности знаков, учитывая при этом тип носителя и способ представления информации, скорость передачи и обработки, размеры кодов представления информации, надежность и точность преобразования этих кодов и т. п., полностью абстрагируясь от смыслового содержания сообщений и их целевого предназначения. На этом уровне информацию, рассматриваемую только с синтаксических позиций, обычно называют данными, так как смысловая сторона при этом не имеет значения.

Современная теория информации исследует в основном проблемы именно этого уровня. Она опирается на понятие «количество информации», являющееся мерой частоты употребления знаков, которая никак не отражает ни смысла, ни важности передаваемых сообщений. В связи с этим иногда говорят, что современная теория информации находится на синтаксическом уровне.

2) семантическом , где анализируются отношения между знаками и обозначаемыми ими предметами, действиями, качествами, т. е. смысловое содержание сообщения, его отношение к источнику информации. Проблемы семантического уровня связаны с формализацией и учетом смысла передаваемой информации, определения степени соответствия образа объекта и самого объекта. На данном уровне анализируются те сведения, которые отражает информация, рассматриваются смысловые связи, формируются понятия и представления, выявляется смысл, содержание информации, осуществляется ее обобщение.

3) прагматическом , где рассматриваются отношения между сообщением и получателем, т. е. потребительское содержание сообщения, его отношение к получателю.

На этом уровне интересуют последствия от получения и использования данной информации потребителем. Проблемы этого уровня связаны с определением ценности и полезности использования информации при выработке потребителем решения для достижения своей цели. Основная сложность здесь состоит в том, что ценность, полезность информации может быть совершенно различной для различных получателей и, кроме того, она зависит от ряда факторов, таких, например, как своевременность ее доставки и использования.


Для каждого из рассмотренных выше уровней проблем передачи информации существуют свои подходы к измерению количества информации и свои меры информации. Различают соответственно меры информации синтаксического уровня, семантического уроня и прагматического уровня.

Меры информации синтаксического уровня. Количественная оценка информации этого уровня не связана с содержательной стороной информации, а оперирует с обезличенной информацией, не выражающей смыслового отношения к объекту. В связи с этим данная мера дает возможность оценки информационных потоков в таких разных по своей природе объектах, как системы связи, вычислительные машины, системы управления, нервная система живого организма и т. п.

Для измерения информации на синтаксическом уровне вводятся два параметра: объем информации (данных) – V д (объемный подход) и количество информации – I (энтропийный подход).

Объем информацииV д (объемный подход). При реализации информационных процессов информация передается в виде сообщения, представляющего собой совокупность символов какого-либо алфавита. При этом каждый новый символ в сообщении увеличивает количество информации, представленной последовательностью символов данного алфавита. Если теперь количество информации, содержащейся в сообщении из одного символа, принять за единицу, то объем информации (данных) V д в любом другом сообщении будет равен количеству символов (разрядов) в этом сообщении. Так как одна и та же информация может быть представлена многими разными способами (с использованием разных алфавитов), то и единица измерения информации (данных) соответственно будет меняться.

Так, в десятичной системе счисления один разряд имеет вес, равный 10, и соответственно единицей измерения информации будет дит (десятичный разряд п п дит. Например, четырехразрядное число 2009 имеет объем данных V д = 4 дит.

В двоичной системе счисления один разряд имеет вес, равный 2, и соответственно единицей измерения информации будет бит (bit (binary digit) – двоичный разряд ). В этом случае сообщение в виде n -разрядного числа имеет объем данных V д = п бит. Например, восьмиразрядный двоичный код 11001011 имеет объем данных V д = 8 бит.

В современной вычислительной технике наряду с минимальной единицей измерения данных бит широко используется укрупненная единица измерения байт , равная 8 бит. Именно восемь битов требуется для того, чтобы закодировать любой из 256 символов алфавита клавиатуры компьютера (256=2 8).

При работе с большими объемами информации для подсчета ее количества применяют более крупные единицы измерения:

1 Килобайт (Кбайт) = 1024 байт = 2 10 байт,

1 Мегабайт (Мбайт) = 1024 Кбайт = 2 20 байт = 1 048 576 байт;

1 Гигабайт (Гбайт) = 1024 Мбайт = 2 30 байт = 1 073 741 824 байт;

В последнее время в связи с увеличением объёмов обрабатываемой информации входят в употребление такие производные единицы, как:

1 Терабайт (Тбайт) = 1024 Гбайт = 2 40 байт = 1 099 511 627 776 байт;

1 Петабайт (Пбайт) = 1024 Тбайт = 2 50 байт = 1 125 899 906 842 624 байт.

Следует обратить внимание, что в системе измерения двоичной (компьютерной) информации, в отличие от метрической системы, единицы с приставками «кило», «мега» и т. д. получаются путем умножения основной единицы не на 10 3 = 1000, 10 6 = 1 000 000 и т. д., а на 2 10 = 1024, 2 20 = 1 048 576 и т. д.

Количество информации I (энтропийный подход). В теории информации и кодирования принят энтропийный подход к измерению информации. Этот подход основан на том, что факт получения информации всегда связан с уменьшением разнообразия или неопределенности (энтропии) системы. Исходя из этого, количество информации в сообщении определяется как мера уменьшения неопределенности состояния данной системы после получения сообщения. Неопределенность может быть интерпретирована в смысле того, насколько мало известно наблюдателю о данной системе. Как только наблюдатель выявил что-нибудь в физической системе, энтропия системы снизилась, так как для наблюдателя система стала более упорядоченной.

Таким образом, при энтропийном подходе под информацией понимается количественная величина исчезнувшей в ходе какого-либо процесса (испытания, измерения и т.д.) неопределенности. При этом в качестве меры неопределенности вводится энтропия Н , а количество информации равно:

I = H apr – H aps

где, H apr – априорная энтропия о состоянии исследуемой системы или процесса;

H aps – апостериорная энтропия.

Апостериори (от лат. a posteriori – из последующего ) – происходящее из опыта (испытания, измерения).

Априори (от лат. a priori – из предшествующего ) – понятие, характеризующее знание, предшествующее опыту (испытанию), и независимое от него.

В случае, когда в ходе испытания имевшаяся неопределенность снята (получен конкретный результат, т. е. Н = 0), количество полученной информации совпадает с первоначальной энтропией

Рассмотрим в качестве исследуемой системы дискретный источник информации (источник дискретных сообщений), под которым будем понимать физическую систему, имеющую конечное множество возможных состояний {а i }, i = .

Все множество А = {a 1 , a 2 , ..., а n } состояний системы в теории информации называют абстрактным алфавитом или алфавитом источника сообщений.

Отдельные состояния a 1 , а 2 ,..., а n называют буквами или символами алфавита.

Такая система может в каждый момент времени случайным образом принять одно из конечных множеств возможных состояний a i . При этом говорят, что различные состояния реализуются вследствие выбора их источником.

Получатель информации (сообщения) имеет определенное представление о возможных наступлениях некоторых событий. Эти представления в общем случае недостоверны и выражаются вероятностями, с которыми он ожидает то или иное событие. Общая мера неопределенности (энтропия) характеризуется некоторой математической зависимостью от этих вероятностей, количество информации в сообщении определяется тем, насколько уменьшается мера неопределенности после получения сообщения.

Поясним эту идею на примере.

Пусть у нас имеется 32 различные карты. Возможность выбора одной карты из колоды – 32. До произведения выбора, естественно предложить, что шансы выбрать некоторую определенную карту, одинаковы для всех карт. Произведя выбор, мы устраняем эту неопределенность. При этом неопределенность можно охарактеризовать количеством возможных равновероятностных выборов. Если теперь определить количество информации как меру устранения неопределенности, то полученную в результате выбора информацию можно охарактеризовать числом 32. Однако удобнее использовать не само это число, а логарифм от полученной выше оценки по основанию 2:

где m – число возможных равновероятных выборов (При m=2, получим информацию в один бит). То есть в нашем случае

H = log 2 32 = 5.

Изложенный подход принадлежит английскому математику Р. Хартли (1928 г.). Он имеет любопытную интерпретацию. Он характеризуется числом вопросов с ответами «да» или «нет», позволяющим определить, какую карту выбрал человек. Таких вопросов достаточно 5.

Если при выборе карты, возможность появления каждой карты не одинаковы (разновероятны), то получим статистический подход к измерению информации, предложенный К. Шенноном (1948 г.). В этом случае мера информации измеряется по формуле:

где p i – вероятность выбора i -го символа алфавита.

Легко заметить, что если вероятности p 1 , ..., p n равны, то каждая из них равна 1/N , и формула Шеннона превращается в формулу Хартли.

Меры информации семантического уровня. Для измерения смыслового содержания информации, т. е. ее количества на семантическом уровне, наибольшее распространение получила тезаурусная мера, которая связывает семантические свойства информации со способностью пользователя принимать поступившее сообщение. Действительно, для понимания и использования полученной информации получатель должен обладать определенным запасом знаний. Полное незнание предмета не позволяет извлечь полезную информацию из принятого сообщения об этом предмете. По мере роста знаний о предмете растет и количество полезной информации, извлекаемой из сообщения.

Если назвать имеющиеся у получателя знания о данном предмете тезаурусом (т. е. неким сводом слов, понятий, названий объектов, связанных смысловыми связями), то количество информации, содержащееся в некотором сообщении, можно оценить степенью изменения индивидуального тезауруса под воздействием данного сообщения.

Тезаурус - совокупность сведений, которыми располагает пользователь или система.

Иными словами, количество семантической информации, извлекаемой получателем из поступающих сообщений, зависит от степени подготовленности его тезауруса для восприятия такой информации.

В зависимости от соотношений между смысловым содержанием информации S и тезаурусом пользователя S p изменяется количество семантической информации I с , воспринимаемой пользователем и включаемой им в дальнейшем в свой тезаурус. Характер такой зависимости показан на рис. 2.1. Рассмотрим два предельных случая, когда количество семантической информации I с равно 0:

а) при S p = 0 пользователь не воспринимает (не понимает) поступающую информацию;

б) при S -> ∞ пользователь «все знает», и поступающая информация ему не нужна.

Рис. 1.2. Зависимость количества семантической информации,

воспринимаемой потребителем, от его тезауруса I c =f(S p)

Максимальное количество семантической информации потребитель приобретает при согласовании ее смыслового содержания S со своим тезаурусом S p (S = S p opt), когда поступающая информация понятна пользователю и несет ему ранее неизвестные (отсутствующие в его тезаурусе) сведения.

Следовательно, количество семантической информации в сообщении, количество новых знаний, получаемых пользователем, является величиной относительной. Одно и то же сообщение может иметь смысловое содержание для компетентного пользователя и быть бессмысленным для пользователя некомпетентного.

При оценке семантического (содержательного) аспекта информации необходимо стремиться к согласованию величин S и Sp.

Относительной мерой количества семантической информации может служить коэффициент содержательности С, который определяется как отношение количества семантической информации к ее объему:

С = I с / V д

Меры информации прагматического уровня. Эта мера определяет полезность информации для достижения пользователем поставленной цели. Эта мера также величина относительная, обусловленная особенностями использования этой информации в той или иной системе.

Одним из первых российских ученых к проблеме оценки информации прагматического уровня обратился А.А. Харкевич, который предложил принять за меру ценности информации количество информации, необходимое для достижения поставленной цели, т. е. рассчитывать приращение вероятности достижения цели. Так, если до получения информации вероятность достижения цели равнялась р 0 , а после ее получения – p 1 то ценность информации определяется как логарифм отношения p 1 /p 0:

I = log 2 p 1 – log 2 р 0 = log 2 (p 1 /p 0)

Таким образом, ценность информации при этом измеряется в единицах информации, в данном случае в битах.

Информации - это что такое? На чем он базируется? Какие цели преследует и задачи выполняет? Обо всём этом мы и поговорим в рамках данной статьи.

Общая информация

В каких случаях применяется семантический способ измерения информации? Используется сущность информации, интересует содержательная сторона полученного сообщения - вот показания для его применения. Но для начала давайте дадим изъяснение того, что он собой представляет. Следует отметить, что семантический способ измерения информации - это трудно формализованный подход, который до сих пор полностью не сформировался. Используется он для того, чтобы измерять количество смысла в данных, которые были получены. Иными словами, какой объем информации из полученной является необходимым в данном случае. Такой подход используется для определения содержательной стороны получаемых сведений. И если мы говорим про семантический способ измерения информации, используется понятие тезауруса, которое неразрывно связано с рассматриваемой темой. Что же оно собой представляет?

Тезаурус

Хочется сделать небольшое введение и дать ответ на один вопрос про семантический способ измерения информации. Кем введен он? Предложил использовать этот метод основатель кибернетики Норберт Винер, но значительное развитие он получил под влиянием нашего соотечественника А. Ю. Шрейдера. Чем же является название используется для обозначения совокупности сведений, которые есть у получателя информации. Если соотнести тезаурус с содержанием сообщения, которое поступило, то можно выяснить, насколько оно снизило неопределённость. Хочется исправить одну ошибку, под влияние которой часто попадает большое количество людей. Так, они считают, что семантический способ измерения информации введен Клодом Шенноном. Неизвестно, как именно возникло это заблуждение, но это мнение неверно. Клод Шеннон ввёл статистический способ измерения информации, «наследником» которого и считается семантический.

Графический подход для определения объема смысловой информации в полученном сообщении

Для чего нужно что-то рисовать? Семантический способ измерения использует такую возможность для наглядного предоставления данных о полезности данных в виде легко понимаемых рисунков. Что же это значит на практике? Для пояснения положения дел строят зависимость в виде графика. Если у пользователя отсутствуют знания о сути сообщения, которое было получено (равняется нулю), то объем семантической информации будет равен этому же значению. Можно ли найти оптимальное значение? Да! Так называется тезаурус, где объем семантической информации максимальный. Давайте рассмотрим небольшой пример. Допустим, пользователю поступило сообщение, написанное на незнакомом иностранном языке, или же человек может прочитать, что там написано, но это для него уже не является новостью, поскольку всё это известно. В таких случаях говорят о том, что в сообщении содержится ноль семантической информации.

Историческое развитие

Вероятно, об этом следовало поговорить немного выше, но наверстать упущенное ещё не поздно. Первоначально семантический способ измерения информации введен Ральфом Хартли в 1928 году. Ранее упоминалось, что в качестве основателя часто упоминают Клода Шеннона. Почему же возникла такая путаница? Дело в том, что, хотя семантический способ измерения информации и был введён Ральфом Хартли в 1928 году, обобщили его в 1948 году именно Клод Шеннон и Уоррен Уивер. После этого основоположник кибернетики Норберт Винер сформировал идею тезаурусного метода, которая получила наибольшее признание в виде меры, разработанной Ю. И. Шнейдером. Следует отметить, что для того чтобы разобраться в этом, необходим достаточно высокий уровень знаний.

Результативность

Что же нам даёт тезаурусный метод на практике? Он является реальным подтверждением тезиса о том, что информация обладает таким свойством, как относительность. При этом следует отметить, что она обладает относительной (или же субъективной) ценностью. Для того чтобы можно было объективно оценивать научную информацию, ввели понятие общечеловеческого тезауруса. Его степень изменения и показывает значительность знаний, которые получает человечество. При этом нельзя точно сказать, какой конечный результат (или же промежуточный) можно будет получить от информации. Возьмём, к примеру, компьютеры. Вычислительная техника создавалась на основе ламповой технологии и битового состояния каждого структурного элемента и первоначально использовалась для осуществления расчетов. Сейчас же почти у каждого человека есть что-то, что работает на основании данной технологии: радио, телефон, компьютер, телевизор, ноутбук. Даже современные холодильники, плиты и умывальники содержат в себе немного электроники, в основе работы которой лежит информация об облегчении использования человеком данных бытовых устройств.

Научный подход

Где же изучается семантический способ измерения информации? Информатика - вот та наука, которая занимается различными аспектами этого вопроса. В чём же заключается особенность? В основу способа положено использование системы «истина/ложь», или же битовая система «единица/ноль». Когда поступает определённая информация, то она разбивается на отдельные блоки, которые именуются подобно единицам речи: слова, слоги и тому подобное. Каждый блок получает определённое значение. Давайте рассмотрим небольшой пример. Рядом стоят два друга. Один обращается ко второму со словами: «Завтра у нас выходной». Когда дни для отдыха - знает каждый. Поэтому ценность этой информации нулевая. Но если второй скажет, что он завтра работает, то для первого это будет неожиданность. Ведь в таком случае может оказаться, что будут нарушены планы, которые строил один человек, например, сходить поиграть в боулинг или же покопаться в мастерской. Каждую часть описанного примера можно описать с помощью единиц и нулей.

Оперирование понятиями

Но что же используется ещё, кроме тезауруса? Что ещё нужно знать, чтобы понимать семантический способ измерения информации? Основные понятия, которые дополнительно можно изучить ещё, - это знаковые системы. Под ними понимают средства выражения смысла, вроде правил интерпретации знаков или же их сочетаний. Давайте рассмотрим ещё один пример из информатики. Компьютеры оперируют условными нулями и единицами. По сути, это низкое и высокое напряжение, которое подаётся на компоненты техники. Причем передают они эти единицы и нули без конца и края. Как же делать различие между ними технике? Ответ на это был найден - прерывания. Когда передаётся эта же самая информация, то получаются различные блоки вроде слов, словосочетаний и отдельных значений. В устной человеческой речи для разбивки данных на отдельные блоки тоже используются паузы. Они настолько незаметны, что большинство из них мы замечаем на «автомате». В письме для этой цели служат точки и запятые.

Особенности

Давайте затронем ещё и тему свойств, которые есть у семантического способа измерения информации. Мы уже знаем, что так называется специальный подход, которые оценивает важность информации. Можно ли говорить, что данные, которые будут оцениваться таким способом, будут объективными? Нет, это не верно. Информация является субъективной. Давайте рассмотрим это на примере школы. Есть отличник, который идёт впереди утверждённой программы, и среднестатистический середнячок, который изучает то, что излагается на занятиях. Для первого большинство информации, которую он будет получать в школе, будет представлять достаточно слабый интерес, поскольку он это уже знает и не впервые слышит/читает. Поэтому на субъективном уровне для него это будет не очень ценно (за счёт разве что отдельных замечаний учителя, которые он подметил за время изложения своего предмета). Тогда как середнячок о новой информации что-то слыхал только отдаленно, поэтому для него ценность данных, которые будут излагаться на уроках, на порядок больше.

Заключение

Следует отметить, что в информатике семантический способ измерений информации - это не единственный вариант, в рамках которого можно решать имеющиеся задачи. Выбор должен зависеть от поставленных целей и присутствующих возможностей. Поэтому, если тема заинтересовала или же в ней существует потребность, то можно только настоятельно порекомендовать изучить её более подробно и узнать, какие ещё способы измерения информации, кроме семантического, существуют.