6 міри інформації синтаксична семантична прагматична. Типи виміру інформації: синтаксична, семантична, прагматична. Заходи інформації семантичного рівня

Тема 2. Основи подання та обробки інформації в комп'ютері

Література

1. Інформатика економіки: Навчальний посібник/Под ред. Б.Є. Одинцова, О.М. Романова. - М.: Вузовський підручник, 2008.

2. Інформатика: Базовий курс: Навчальний посібник / Под ред. С.В. Симоновича. - СПб.: Пітер, 2009.

3. Інформатика. Загальний курс: Підручник / Співавт.: А.М. Гуда, М.А. Бутакова, Н.М. Нечитайло, А.В. Чернов; За заг. ред. В.І. Колесникова. - М.: Дашков та К, 2009.

4. Інформатика для економістів: Підручник / За ред. Матюшка В.М. - М: Інфра-М, 2006.

5. Економічна інформатика: Введення в економічний аналіз інформаційних систем.- М.: ІНФРА-М, 2005.

Заходи інформації (синтаксична, семантична, прагматична)

Для вимірювання інформації можуть застосовуватися різні підходи, але найбільшого поширення набули статистичний(імовірнісний), семантичнийі п рагматичнийметоди.

Статистичний(імовірнісний) метод вимірювання інформації було розроблено К. Шенноном в 1948 році, який запропонував кількість інформації розглядати як міру невизначеності стану системи, що знімається в результаті отримання інформації. Кількісно виражена невизначеність дістала назву ентропії. Якщо після отримання деякого повідомлення спостерігач придбав додаткову інформаціюпро систему Х,то невизначеність зменшилась. Додатково отримана кількість інформації визначається як:

де - додаткова кількість інформації про систему Х, що надійшло у формі повідомлення;

Початкова невизначеність (ентропія) системи X;

Кінцева невизначеність (ентропія) системи X,настала після отримання повідомлення.

Якщо система Xможе перебувати в одному з дискретних станів, кількість яких n, а ймовірність знаходження системи у кожному їх дорівнює і сума ймовірностей всіх станів дорівнює одиниці , то ентропія обчислюється за такою формулою Шеннона:

де – ентропія системи Х;

а- основа логарифму, що визначає одиницю вимірювання інформації;

n– кількість станів (значень), у якому може бути система.

Ентропія величина позитивна, оскільки ймовірності завжди менше одиниці, які логарифм негативний, тому знак мінус у формулі К.Шеннона робить ентропію позитивною. Таким чином, за міру кількості інформації приймається та ж ентропія, але зі зворотним знаком.

Взаємозв'язок інформації та ентропії можна розуміти так: отримання інформації (її збільшення) одночасно означає зменшення незнання або інформаційної невизначеності (ентропії)

Отже, статистичний підхід враховує можливість появи повідомлень: більш інформативним вважається те повідомлення, яке менш імовірно, тобто. найменше очікувалося. Кількість інформації досягає максимального значенняякщо події рівноймовірні.

Р. Хартлі запропонував таку формулу для вимірювання інформації:

I = log 2 n ,

де n- кількість рівноймовірних подій;

I– міра інформації у повідомленні про настання одного з nподій

Вимірювання інформації виявляється у її обсязі. Найчастіше це стосується обсягу комп'ютерної пам'ятіта обсягу даних, що передаються каналами зв'язку. За одиницю прийнято таку кількість інформації, при якій невизначеність зменшується вдвічі, така одиниця інформації отримала назву біт .

Якщо як основа логарифму у формулі Хартлі використовується натуральний логарифм(), то одиницею вимірювання інформації є нат ( 1 біт = ln2 ≈ 0,693 нат). Якщо як основа логарифму використовується число 3, то - тритякщо 10, то - дит (хартлі).

На практиці частіше застосовується більша одиниця - байт(byte), рівний восьми бітам. Така одиниця вибрана тому, що за її допомогою можна закодувати будь-який із 256 символів алфавіту клавіатури комп'ютера (256=2 8).

Крім байтів інформація вимірюється напівсловами (2 байти), словами (4 байти) і подвійними словами (8 байти). Широко використовуються також ще більше великі одиницівимірювання інформації:

1 Кілобайт (Кбайт - kilobyte) = 1024 байт = 2 10 байт,

1 Мегабайт (Мбайт - megabyte) = 1024 Кбайт = 2 20 байт,

1 Гігабайт (Гбайт - gigabyte) = 1024 Мбайт = 230 байт.

1 Терабайт (Тбайт - terabyte) = 1024 Гбайт = 2 40 байт,

1 Петабайт (Пбайт - petabyte) = 1024 Тбайт = 250 байт.

У 1980 році російський математик Ю. Манін запропонував ідею побудови квантового комп'ютера, у зв'язку з чим з'явилася така одиниця інформації як кубить ( quantum bit, qubit ) – «квантовий біт» – міра вимірювання об'єму пам'яті в теоретично можливому вигляді комп'ютера, який використовує квантові носії, наприклад – спини електронів. Кубит може приймати не два різні значення ("0" і "1"), а кілька, що відповідають нормованим комбінаціям двох основних станів спина, що дає більшу кількість можливих поєднань. Так, 32 кубіти можуть закодувати близько 4 млрд статків.

Семантичний підхідСинтаксичного заходу недостатньо, якщо потрібно визначити не обсяг даних, а кількість необхідної в повідомленні інформації. І тут розглядається семантичний аспект, що дозволяє визначити змістовну сторону відомостей.

Для вимірювання змістового інформації можна скористатися тезаурусом її одержувача (споживача). Ідея тезаурусного методу була запропонована М. Вінером та розвинена нашим вітчизняним ученим А.Ю. Шрейдер.

Тезаурусомназивається сукупність відомостей, які має одержувач інформації. Співвіднесення тезаурусу зі змістом повідомлення, що надійшло, дозволяє з'ясувати, наскільки воно знижує невизначеність.

Залежність обсягу смислової інформації повідомлення від тезаурусу одержувача

Відповідно до залежності, представленої на графіці, за відсутності у користувача будь-якого тезаурусу (знань про сутність повідомлення, тобто =0), або наявності такого тезаурусу, який не змінився в результаті надходження повідомлення (), то обсяг семантичної інформаціїв ньому дорівнює нулю. Оптимальним буде такий тезаурус (), коли обсяг семантичної інформації буде максимальним (). Наприклад, семантичної інформації в повідомленні, що надійшло незнайомому іноземною мовоюбуде нуль, Але й така ж ситуація буде в тому випадку, якщо повідомлення вже не є новиною,тому що користувачеві вже все відомо.

Прагматичний західінформації визначає її корисністьу досягненні споживачем своїх цілей. Для цього достатньо визначити ймовірність досягнення мети до і після отримання повідомлення і порівняти їх. Цінність інформації (за А.А. Харкевичем) розраховується за формулою:

де - ймовірність досягнення мети до отримання повідомлення;

ймовірність досягнення мети поле отримання повідомлення;

Для виміру змістового інформації, тобто. її кількості на семантичному рівні, найбільше визнання набув тезаурусний захід (запропонований Ю. І. Шрейдером), який пов'язує семантичні властивостіінформації зі здатністю користувача приймати повідомлення, що надійшло. Для цього використовується поняття тезаурус користувача.

Тезаурус- це сукупність відомостей, які має користувач або система.

Залежно від співвідношень між смисловим змістом інформації S та тезаурусом користувача S p змінюється кількість семантичної інформації 1 С,сприймається користувачем і включається ним надалі у свій тезаурус. Характер такої залежності показано на рис. 1.5. Розглянемо два граничні випадки, коли кількість семантичної інформації 1 Содно 0:

  • при S p -> 0 користувач не сприймає, не розуміє інформацію, що надходить;
  • при S p -> 1 користувач все знає, і інформація, що надходить йому не потрібна.

Мал. 1.5.

Максимальна кількістьсемантичної інформації / с споживач набуває за погодженням її змістового змісту S зі своїм тезаурусом S p(S p = S popt), коли інформація, що надходить, зрозуміла користувачеві і несе йому раніше не відомі (відсутні в його тезаурусі) відомості. Отже, кількість семантичної інформації в повідомленні, кількість нових знань, які користувач отримує, є величиною відносною. Те саме повідомлення може мати змістовий зміст для компетентного користувача і бути безглуздим для користувача некомпетентного. Відносним заходом кількості семантичної інформації може бути коефіцієнт змістовності З, розглянутий вище.

Прагматичний (аксіологічний) підхід до інформації виходить з аналізі її цінності, з погляду споживача. Наприклад, інформація, що має безперечну цінність для біолога, матиме цінність, близьку до нульової, для програміста. Цінність інформації пов'язують з часом, оскільки з часом вона старіє і цінність її, а отже, і кількість зменшуються. Таким чином, прагматичний підхід оцінює змістовний аспект інформації. Він має особливе значення при використанні інформації для керування, оскільки її кількість тісно пов'язана з ефективністю керування в системі.

Прагматичний захід інформаціївизначає корисність інформації (цінність) задля досягнення користувачем поставленої ланцюга. Цей захід - також величина відносна, обумовлена ​​особливостями використання цієї інформації в тій чи іншій системі.

Цінність інформації доцільно вимірювати в тих самих одиницях (або близьких до них), в яких вимірюється цільова функція.

Алгоритмічний підхід пов'язані з бажанням застосування універсальної міри інформації. Кількісна характеристика, що відображає складність (розмір) програми і дозволяє зробити якесь повідомлення, була запропонована А. Н. Колмогоровим.

Так як існують різні способи завдання та реалізації алгоритму з використанням різних обчислювальних машин та мов програмування, то для визначеності задається деяка конкретна машина, наприклад машина Тюрінга.У цьому випадку як кількісна характеристика повідомлення можна взяти мінімальну кількість внутрішніх станів машини, потрібних для відтворення даного повідомлення.

Різні підходи до оцінки кількості інформації змушують, з одного боку, використовувати різнотипні одиниці інформації для характеристики різних інформаційних процесів, з другого - ув'язувати ці одиниці між собою як у логічному, і на фізичному рівнях. Наприклад, процес передачі інформації, що вимірюється в одних одиницях, сполучається з процесом зберігання інформації, де вона вимірюється в інших одиницях і т.д., а тому вибір одиниці інформації є дуже актуальним завданням.

У табл. 1.3 зіставлено введені заходи інформації.

Таблиця 1.3

Зіставлення заходів інформації

При реалізації інформаційних процесів завжди відбувається перенесення інформації у просторі та час від джерела інформації до приймача (одержувача). При цьому передачі інформації використовують різні знаки чи символи, наприклад природного чи штучного (формального) мови, дозволяють висловити їх у певній формі, званої повідомленням.

Повідомлення- Форма подання інформації у вигляді сукупності знаків (символів), що використовується для передачі.

Повідомлення як сукупність знаків з погляду семіотики ( від грец. setneion - знак, ознака) - науки, що займається дослідженням властивостей знаків та знакових систем, - може вивчатися на трьох рівнях:

1) синтаксичним , де розглядаються внутрішні властивості повідомлень, тобто відносини між знаками, що відбивають структуру цієї знакової системи. Зовнішні властивостівивчають на семантичному та прагматичному рівнях. На цьому рівні розглядають проблеми доставки одержувачу повідомлень як сукупності знаків, враховуючи при цьому тип носія та спосіб подання інформації, швидкість передачі та обробки, розміри кодів подання інформації, надійність та точність перетворення цих кодів тощо, повністю абстрагуючись від змістового повідомлень та їх цільового призначення. На цьому рівні інформацію, яку розглядають тільки з синтаксичних позицій, зазвичай називають даними, оскільки смислова сторона при цьому не має значення.

Сучасна теорія інформації досліджує переважно проблеми саме цього рівня. Вона спирається на поняття «кількість інформації», що є мірою частоти вживання знаків, яка ніяк не відображає ні сенсу, ні важливості повідомлень, що передаються. У зв'язку з цим іноді кажуть, що сучасна теорія інформації знаходиться на синтаксичному рівні.

2) семантичному , де аналізуються відносини між знаками та предметами, що позначаються ними, діями, якостями, тобто смисловий зміст повідомлення, його ставлення до джерела інформації. Проблеми семантичного рівня пов'язані з формалізацією та врахуванням сенсу переданої інформації, визначення ступеня відповідності образу об'єкта та самого об'єкта на даному рівніаналізуються ті відомості, які відображає інформація, розглядаються смислові зв'язки, формуються поняття та уявлення, виявляється зміст, зміст інформації, здійснюється її узагальнення.

3) прагматичному , де розглядаються відносини між повідомленням та одержувачем, тобто споживчий зміст повідомлення, його ставлення до одержувача.

На цьому рівні цікавлять наслідки від отримання та використання цієї інформації споживачем. Проблеми цього рівня пов'язані з визначенням цінності та корисності використання інформації при виробленні споживачем рішення для досягнення своєї мети. Основна складність тут полягає в тому, що цінність, корисність інформації може бути абсолютно різною для різних одержувачів і, крім того, вона залежить від ряду факторів, таких, як своєчасність її доставки та використання.


Для кожного з розглянутих вище рівнів проблем передачі існують свої підходи до вимірювання кількості інформації та свої заходи інформації. Розрізняють відповідно заходи інформації синтаксичного рівня, семантичного втрат і прагматичного рівня.

Заходи інформації синтаксичного рівня. Кількісна оцінкаІнформація цього рівня не пов'язана зі змістовною стороною інформації, а оперує з знеособленою інформацією, що не виражає смислового ставлення до об'єкта. У зв'язку з цим даний західдає можливість оцінки інформаційних потоків у таких різних за своєю природою об'єктах, як системи зв'язку, обчислювальні машини, системи управління, нервова система живого організму тощо.

Для вимірювання інформації на синтаксичному рівні вводяться два параметри: обсяг інформації (даних) – V д(об'ємний підхід) та кількість інформації – I(Ентропійний підхід).

Обсяг інформації V д (об'ємний підхід).При реалізації інформаційних процесів інформація передається у вигляді повідомлення, що є сукупністю символів будь-якого алфавіту. При цьому кожен новий символ у повідомленні збільшує кількість інформації, наданої послідовністю символів. даного алфавіту. Якщо тепер кількість інформації, що міститься в повідомленні з одного символу, прийняти за одиницю, то обсяг інформації (даних) V д у будь-якому іншому повідомленні дорівнюватиме кількості символів (розрядів) у цьому повідомленні. Так як та сама інформація може бути представлена ​​багатьма різними способами(з використанням різних алфавітів), то й одиниця виміру інформації (даних) відповідно змінюватиметься.

Так, у десятковій системі числення один розряд має вагу, що дорівнює 10, і відповідно одиницею вимірювання інформації буде дит (десятковий розряд п пдит. Наприклад, чотирирозрядне число 2009 має обсяг даних V д = 4 дит.

У двійковій системічислення один розряд має вагу, що дорівнює 2, і відповідно одиницею вимірювання інформації буде біт (bit (binary digit) – двійковий розряд). У цьому випадку повідомлення у вигляді n-Розрядного числа має обсяг даних V д = пбіт. Наприклад, восьмирозрядний двійковий код 11001011 має обсяг даних V д = 8 біт.

У сучасній обчислювальній техніці поряд з мінімальною одиницеювимірювання даних бітшироко використовується укрупнена одиниця виміру байт, рівна 8 біт. Саме вісім бітів потрібно закодувати будь-який з 256 символів алфавіту клавіатури комп'ютера (256=2 8).

При роботі з великими обсягамиінформації для підрахунку її кількості застосовують більші одиниці виміру:

1 Кілобайт (Кбайт) = 1024 байт = 2 10 байт,

1 Мегабайт (Мбайт) = 1024 Кбайт = 2 20 байт = 1048576 байт;

1 Гігабайт (Гбайт) = 1024 Мбайт = 2 30 байт = 1073741824 байт;

У Останнім часому зв'язку із збільшенням обсягів оброблюваної інформації входять у вживання такі похідні одиниці, як:

1 Терабайт (Тбайт) = 1024 Гбайт = 2 40 байт = 1099511627776 байт;

1 Петабайт (Пбайт) = 1024 Тбайт = 2 50 байт = 1125899906842624 байт.

Слід звернути увагу, що в системі вимірювання двійкової (комп'ютерної) інформації, на відміну від метричної системи, одиниці з приставками «кіло», «мега» тощо виходять шляхом множення основної одиниці не на 10 3 = 1000, 10 6 = 1000000 і т. д., а на 2 10 = 1024, 2 20 = 1048576 і т. д.

Кількість інформації I (Ентропійний підхід).У теорії інформації та кодування прийнято ентропійний підхід до вимірювання інформації. Цей підхід ґрунтується на тому, що факт отримання інформації завжди пов'язаний із зменшенням різноманітності чи невизначеності (ентропії) системи. Виходячи з цього, кількість інформації у повідомленні визначається як міра зменшення невизначеності стану цієї системи після отримання повідомлення.Невизначеність може бути інтерпретована у сенсі того, наскільки мало відомо спостерігачеві про цю систему. Як тільки спостерігач виявив що-небудь у фізичній системі, ентропія системи знизилася, тому що для спостерігача система стала більш упорядкованою.

Таким чином, при ентропійному підході під інформацією розуміється кількісна величина зниклої в ході будь-якого процесу (випробування, вимірювання тощо) невизначеності.При цьому як невизначеність вводиться ентропія Н, а кількість інформації дорівнює:

I = H apr - H aps

де, H apr - апріорна ентропія про стан досліджуваної системи або процесу;

H aps – апостеріорна ентропія.

Апостеріорі (від латів. a posteriori – з наступного) – те, що відбувається з досвіду (випробування, вимірювання).

Апріорі (від латів. a priori – з попереднього) – поняття, що характеризує знання, що передує досвіду (випробуванню), та незалежне від нього.

У разі, коли в ході випробування невизначеність знята (отриманий конкретний результат, тобто Н = 0), кількість отриманої інформації збігається з первісною ентропією

Розглянемо як досліджувану систему дискретне джерело інформації (джерело дискретних повідомлень), під яким будемо розуміти фізичну систему, що має кінцеву множину можливих станів {а i}, i = .

Все безліч А = (a 1, a 2, ..., а n)станів системи теорії інформації називають абстрактним алфавітом чи алфавітом джерела повідомлень.

Окремі стани a 1 , а 2 ,..., а nназивають літерами чи символами алфавіту.

Така система може в кожний момент часу випадковим чином прийняти одну з кінцевих множин можливих станів a i. У цьому кажуть, різні стани реалізуються внаслідок вибору їх джерелом.

Одержувач інформації (повідомлення) має певне уявлення про можливі настання деяких подій. Ці уявлення в загальному випадку недостовірні і виражаються ймовірностями, з якими він чекає на ту чи іншу подію. Загальна міра невизначеності (ентропія) характеризується деякою математичною залежністю від цих ймовірностей, кількість інформації у повідомленні визначається тим, наскільки зменшується міра невизначеності після отримання повідомлення.

Пояснимо цю ідею з прикладу.

Нехай у нас є 32 різні карти. Можливість вибору однієї карти з колоди – 32. До вибору, природно запропонувати, що шанси вибрати певну певну карту, однакові всім карт. Зробивши вибір, ми усуваємо цю невизначеність. У цьому невизначеність можна охарактеризувати кількістю можливих равновероятностных виборів. Якщо тепер визначити кількість інформації як міру усунення невизначеності, то отриману в результаті вибору інформацію можна охарактеризувати числом 32. Однак зручніше використовувати не саме це число, а логарифм від отриманої вище оцінки на підставі 2:

де m - кількість можливих рівноймовірних виборів (При m = 2, отримаємо інформацію в один біт). Тобто в нашому випадку

H = log 2 32 = 5.

Викладений підхід належить англійському математику Р. Хартлі (1928). Він має цікаву інтерпретацію. Він характеризується числом питань із відповідями «так» чи «ні», що дозволяє визначити, яку карту вибрала людина. Таких питань достатньо 5.

Якщо при виборі карти, можливість появи кожної картки не однакові (різноманітні), то отримаємо статистичний підхід до вимірювання інформації, запропонований К. Шенноном (1948). У цьому випадку міра інформації вимірюється за такою формулою:

де p i- Імовірність вибору i-го алфавіту символ.

Легко помітити, що якщо ймовірність p 1, ..., p nрівні, то кожна з них дорівнює 1/N, і формула Шеннона перетворюється на формулу Хартлі.

Заходи інформації семантичного рівня.Для вимірювання смислового змісту інформації, тобто її кількості на семантичному рівні, найбільшого поширення набув тезаурусний захід, який пов'язує семантичні властивості інформації зі здатністю користувача приймати повідомлення, що надійшло. Дійсно, для розуміння та використання отриманої інформації одержувач повинен мати певний запас знань. Повне незнання предмета не дозволяє отримати корисну інформацію з прийнятого повідомлення про цей предмет. У міру зростання знань про предмет зростає і кількість корисної інформації, що витягується з повідомлення.

Якщо назвати наявні в одержувача знання про цей предмет тезаурусом (тобто певним зведенням слів, понять, назв об'єктів, пов'язаних смисловими зв'язками), кількість інформації, що міститься у певному повідомленні, можна оцінити ступенем зміни індивідуального тезаурусу під впливом даного повідомлення.

Тезаурус- сукупність відомостей, які має користувач або система.

Іншими словами, кількість семантичної інформації, яку одержувач отримує з повідомлень, що надходять, залежить від ступеня підготовленості його тезаурусу для сприйняття такої інформації.

Залежно від співвідношень між змістовим змістом інформації Sта тезаурусом користувача S pзмінюється кількість семантичної інформації I з, що сприймається користувачем і включається ним надалі до свого тезаурусу. Характер такої залежності показано на рис. 2.1. Розглянемо два граничні випадки, коли кількість семантичної інформації I дорівнює 0:

а) при S p = 0 користувач не сприймає (не розуміє) інформацію, що надходить;

б) при S -> ∞ користувач «все знає», і інформація, що надходить йому не потрібна.

Мал. 1.2. Залежність кількості семантичної інформації,

сприймається споживачем, від його тезаурусу I c = f(S p)

Максимальну кількість семантичної інформації споживач набуває за узгодженням її змістового змісту S зі своїм тезаурусом S p (S = S p opt), коли інформація, що надходить, зрозуміла користувачеві і несе йому раніше невідомі (відсутні в його тезаурусі) відомості.

Отже, кількість семантичної інформації в повідомленні, кількість нових знань, які користувач отримує, є величиною відносною. Те саме повідомлення може мати змістовий зміст для компетентного користувача і бути безглуздим для користувача некомпетентного.

Оцінюючи семантичного (змістовного) аспекту інформації необхідно прагнути до узгодження величин S і Sp.

Відносним заходом кількості семантичної інформації може бути коефіцієнт змістовності С, який визначається як відношення кількості семантичної інформації до її обсягу:

З = I с / V д

Заходи інформації прагматичного рівня.Цей захід визначає корисність інформації для досягнення користувачем поставленої мети. Цей захід також є величиною відносною, обумовленою особливостями використання цієї інформації в тій чи іншій системі.

p align="justify"> Одним з перших російських учених до проблеми оцінки інформації прагматичного рівня звернувся А.А. Харкевич, який запропонував прийняти за міру цінності інформації кількість інформації, необхідну досягнення поставленої мети, т. е. розраховувати збільшення ймовірності досягнення мети. Так, якщо до отримання інформації ймовірність досягнення мети дорівнювала р 0 а після її отримання - p 1 то цінність інформації визначається як логарифм відношення p 1 / p 0:

I = log 2 p 1 - log 2 р 0 = log 2 (p 1 / p 0)

Таким чином, цінність інформації при цьому вимірюється в одиницях інформації, даному випадкуу бітах.

Для виміру змістового інформації, тобто. її кількості на семантичному рівні, найбільше визнання отримала тезаурусна міра, яка пов'язує семантичні властивості інформації зі здатністю користувача приймати повідомлення, що надійшло. Для цього використовується поняття тезаурус користувача.

Тезаурус- це сукупність відомостей, які має користувач або система.

Залежно від співвідношень між змістовим змістом інформації Sта тезаурусом користувача S pзмінюється кількість семантичної інформації I c ,сприймається користувачем і включається ним надалі у свій тезаурус. Характер такої залежності показано на рис.2.2. Розглянемо два граничні випадки, коли кількість семантичної інформації I cодно 0:

при S p 0користувач не сприймає, не розуміє інформацію, що надходить;

при Sp;користувач все знає, що надходить інформація йому не потрібна.

Мал. 2.2. Залежність кількості семантичної інформації. сприймається споживачем, від його тезаурусу Ic=f(Sp)

Максимальна кількість семантичної інформації I cспоживач набуває за погодженням її змістового змісту Sзі своїм тезаурусом S p (S p = S p opt), коли інформація, що надходить, зрозуміла користувачеві і несе йому раніше не відомі (відсутні в його тезаурусі) відомості.

Отже, кількість семантичної інформації в повідомленні, кількість нових знань, які користувач отримує, є величиною відносною. Те саме повідомлення може мати змістовий зміст для компетентного користувача і бути безглуздим (семантичний шум) для користувача некомпетентного.

Оцінюючи семантичного (змістовного) аспекту інформації необхідно прагнути до узгодження величин Sі S p.

Відносним заходом кількості семантичної інформації може бути коефіцієнт змістовності З, Який визначається як відношення кількості семантичної інформації до її обсягу:

Прагматичний захід інформації

Цей захід визначає корисність інформації (цінність) для досягнення користувачем поставленої мети. Цей захід також є величиною відносною, обумовленою особливостями використання цієї інформації в тій чи іншій системі. Цінність інформації доцільно вимірювати в тих самих одиницях (або близьких до них), в яких вимірюється цільова функція.



приклад 2.5.У економічній системіпрагматичні властивості (цінність) інформації можна визначити приростом економічного ефекту функціонування, досягнутим завдяки використанню цієї інформації для керування системою:

Inb(g)=П(g/b)-П(g),

де Inb(g)-цінність інформаційного повідомлення b для системи керування g,

П(g)-Апріорний очікуваний економічний ефект функціонування системи управління g ,

П(g/b)- очікуваний ефект функціонування системи g за умови, що для керування буде використано інформацію, що міститься в повідомленні b.

Для порівняння введені заходи інформації подаємо у табл.2.1.

Таблиця 2.1. Одиниці виміру інформації та приклади

ЯКІСТЬ ІНФОРМАЦІЇ

Можливість та ефективність використання інформації обумовлюються такими основними її споживчими показниками якості, як репрезентативність, змістовність, достатність, доступність, актуальність, своєчасність, точність, достовірність, стійкість.

  • Репрезентативність інформації пов'язана з правильністю її відбору та формування з метою адекватного відображення властивостей об'єкта. Найважливіше значеннятут мають:
  • правильність концепції, з урахуванням якої сформульовано вихідне поняття;
  • обґрунтованість відбору істотних ознак і зв'язків явища, що відображається.
  • Порушення репрезентативності інформації призводить нерідко до її похибок.
  • Змістовність інформації відбиває семантичну ємність, рівну відношенню кількості семантичної інформації у повідомленні обсягу оброблюваних даних, тобто. C=Ic/Vд.

Зі збільшенням змістовності інформації зростає семантична пропускна здатністьінформаційної системи, оскільки для отримання тих самих відомостей потрібно перетворити менший обсяг даних.

Поряд із коефіцієнтом змістовності С, що відображає семантичний аспект, можна використовувати і коефіцієнт інформативності, що характеризується відношенням кількості синтаксичної інформації(за Шенноном) до обсягу даних Y=I/Vд.

  • Достатність (повнота) Інформація означає, що вона містить мінімальний, але достатній для прийняття правильного рішення склад (набір показників). Поняття повноти інформації пов'язане з її змістовим змістом (семантикою) та прагматикою. Як неповна, тобто. недостатня для прийнятого правильного рішення, так і надмірна інформація знижує ефективність прийнятих користувачем рішень.
  • Доступність Інформація про сприйняття користувача забезпечується виконанням відповідних процедур її отримання та перетворення. Наприклад, в інформаційній системі інформація перетворюється на доступну і зручну для сприйняття користувача форму. Це досягається, зокрема, шляхом узгодження її семантичної форми з тезаурусом користувача.
  • Актуальність інформації визначається ступенем збереження цінності інформації для управління в момент її використання та залежить від динаміки зміни її характеристик та від інтервалу часу, що минув з моменту виникнення даної інформації.
  • Своєчасність інформації означає її надходження пізніше заздалегідь призначеного моменту часу, узгодженого з часом вирішення поставленої задачи.
  • Точність інформації визначається ступенем близькості одержуваної інформації до реального стануоб'єкта, процесу, явища тощо. Для інформації, що відображається цифровим кодом, відомі чотири класифікаційні поняття точності:
  • формальна точність, що вимірюється значенням одиниці молодшого розряду числа;
  • реальна точність, яка визначається значенням одиниці останнього розряду числа, вірність якого гарантується;
  • максимальна точність, яку можна отримати у конкретних умовах функціонування системи;

ДостовірністьІнформація визначається її властивістю відображати реально існуючі об'єкти з необхідною точністю. Вимірюється достовірність інформації довірчою ймовірністю необхідної точності, тобто. ймовірністю того, що значення параметра, що відображається інформацією, відрізняється від істинного значення цього параметра в межах необхідної точності.

Стійкістьінформації відбиває її здатність реагувати зміни вихідних даних без порушення необхідної точності. Стійкість інформації, як і репрезентативність, обумовлена ​​обраною методикою її відбору та формування.

На закінчення слід зазначити, що такі параметри якості інформації, як репрезентативність, змістовність, достатність, доступність, стійкість цілком визначаються на методичному рівні розробки інформаційних систем. Параметри актуальності, своєчасності, точності та достовірності обумовлюються переважно також на методичному рівні, проте на їхню величину істотно впливає і характер функціонування системи, насамперед її надійність. При цьому параметри актуальності та точності жорстко пов'язані відповідно до параметрів своєчасності та достовірності.

Одиниці кількості інформації, обумовлені у межах імовірнісного і об'ємного підходів, є різновиду синтаксичної міри інформації, використовуваної при найбільш загальному підході, коли предметом розгляду не лише інформація у вузькому значенні (наприклад, оброблена комп'ютером), але її види, включаючи соціальну.

Синтаксична міраоперує із знеособленою інформацією, яка не виражає смислового ставлення до об'єкта. Об'єм даних в інформаційному повідомленні вимірюється кількістю символів (розрядів). У різних системахчисленні розряди мають різну вагу, відповідно змінюються одиниці виміру даних. Прикладами можуть бути біт, нат, трит, дит. У межах ймовірнісного підходу синтаксична міра кількості інформації визначається ступенем зміни невизначеності стану системи, у межах об'ємного підходу характеризує обсяг інформації.

Семантичний західвикористовується для характеристики інформації з погляду її сенсу. Семантичний аналіз дає можливість розкрити зміст інформації та показати відносини між смисловими значеннями складових її елементів. У поєднанні з поняттям «тезаурус» семантичний захід називається тезаурусним заходомінформації. Тезаурусна міра була запропонована Ю.І.Шнейдером і набула широкого поширення. Тезаурус– це сукупність відомостей, які має користувач або система. Інше визначення, яке не суперечить першому: тезаурус - повнота систематизованого набору даних про предмет інформації. У ході інформаційного процесу в залежності від співвідношень між змістовим змістом інформації та тезаурусом користувача змінюється кількість семантичної інформації, що сприймається користувачем і включається ним надалі до свого тезаурусу. Максимальна кількість семантичної інформації користувач отримує, коли інформація йому зрозуміла і несе відомості, що раніше не відомі йому (відсутні в тезаурусі). Придбане в ході інформаційного процесукількість семантичної інформації є величиною відносної, оскільки одне й те повідомлення може мати змістове зміст для компетентного користувача і бути безглуздим (семантичний шум) для некомпетентного. Мірою семантичної інформації може бути коефіцієнт змістовності, який визначається як відношення кількості семантичної інформації до загального її обсягу.

Прагматичний західхарактеризує корисність (цінність) інформації задля досягнення користувачем поставленої мети. Цей захід також є відносною величиною, яка залежить від конкретних потреб користувача та умов протікання інформаційного процесу. У технічній системі прагматичні властивості інформації визначають можливість покращення якості функціонування системи.

Форми подання інформації в ЕОМ. Системи числення

У фізичній основі роботи обчислювальної технікилежить генерація, обробка та передача електричних сигналів. Електричні сигнали поділяють на аналогові(безперервні) та цифрові(Дискретні). У обчислювальній техніці застосовують цифрові сигнали. Кожному рівню напруги (струму) ставлять у відповідність певну цифру. Співвіднесення параметрів електричного сигналу з цифрами відображає зв'язок між технікою та математикою. Сучасні ЕОМ базуються на двійковій системі числення, в якій є лише дві цифри – 0 і 1. Вибір на користь цієї системи обумовлений тим, що технічно реалізувати її простіше, ніж звичну для людини десяткову системуобчислення.

Основний елемент електроніки ЕОМ - транзистор, що працює в ключовому режимі. У цьому режимі транзистор залежно від прикладеної до нього напруги реалізує за принципом ключа два логічні стани: відкритий - закритий або включений - вимкнений. Два цих стану зіставляють 0 і 1 двійкової системи числення - тим математичним об'єктам, з допомогою яких кодується будь-яка інформація, оброблена комп'ютером. На рівні характеристик електричного сигналу нулю може, наприклад, відповідати напругу мінус 5 вольт, а одиниці - плюс 5 вольт. Або - 15 В і + 15 В. Абсолютні значення напруги, яким зіставлені логічні стани 0 і 1, для програмної обробкиінформації несуттєві та визначаються оптимальними умовами функціонування електронних плат. У пристроях зберігання даних інформаційні «нулі» та «одиниці» можуть бути реалізовані інакше: наприклад, на магнітному диску станів 0 та 1 відповідають різні напрямки вектора намагніченості; у накопичувачах Flash – відсутність чи наявність електричного заряду у цій мікроскопічній області речовини; у мікросхемах ОЗП – незаряджений або заряджений конденсатор.

Отже, внутрішнє подання будь-якої інформації у комп'ютері є двійковим. У програмуванні також використовуються вісімкова та шістнадцяткова системи числення. Крім того, оскільки користувачем комп'ютера є людина, важливим є зв'язок згаданих систем числення з десятковою.

Система зчислення- Прийнятий спосіб запису чисел - характеризується кількістю цифр, за допомогою яких можна виразити будь-яке число. Усі системи числення можна розділити на два класи: позиційніі непозиційні. Позиційні системи числення – ті, у яких вага цифр залежить від розташування в записі числа. Кількість цифр у позиційної системиназивається основою системи числення. Нижче в одному блоці зібрані важливі визначення, що належать до систем обчислення.

Цифри– символи, що використовуються в записі числа та складають певний алфавіт.

Число- Деяка величина, що складається з цифр за певними правилами.

Система зчислення– спосіб записування чисел за допомогою цифр.

Позиційна система числення– система числення, в якій вага цифри залежить від її розташування у записі.

Розряд– позиція цифри у числі.

Заснування– кількість цифр, які використовуються для запису чисел.

У комп'ютерах використовуються позиційні системи числення.

Системи числення,

які отримали найбільше застосування у обчислювальній техніці

Заснування

Система зчислення

двійкова

вісімкова

0, 1, 2, 3, 4, 5, 6, 7

десяткова

0, 1, 2, 3, 4, 5, 6, 7, 8, 9

шістнадцяткова

0, 1, 2, 3, 4, 5, 6, 7, 8, 9, A, B, C, D, E, F

Прикладом непозиційної системи числення є римська. У цій системі використовується 7 знаків (I, V, X, L, C, D, M), які відповідають наступним величинам: I – 1, V – 5, X – 10, L – 50, C – 100, D – 500 , M - 1000. Зазвичай римськими числами користуються при нумерації розділів у книгах або століть в історії. Недоліком непозиційних систем числення, що виключає можливість їх використання у обчислювальній техніці, є формальних правил запису чисел і, відповідно, неможливість виконання арифметичних дій над ними.

Розглянемо подання числа у позиційній системі числення. Почнемо із простого прикладу. Нехай N – цілечисло. Воно може бути представлене коротким або розгорнутим записом. Короткий запис числа:

N = (a n an -1 …a 1 a 0) p

Тут a 0 , a 1 , … , a n -1 , a n – цифри, що є відповідно на нульової, першої, … , (n-1)-ой, n-ой позиціях у записі числа. Нумерація позицій або розрядів починається з нуля і йде справа наліво. 0 - це молодший розряд числа, що має найменшу вагу; n – старший розряд із найбільшою вагою. Число p – це основа системи числення.

Наприклад, серед N = (6874) 10 цифра 4 представляє нульовий розряд, 7 – перший розряд, 8 – другий розряд, 6 – третій розряд. Вага розрядів збільшується праворуч наліво, від одиниць до тисяч: 4 одиниці – 7 десятків – 8 сотень – 6 тисяч. 10 – основа системи числення – вказує, що це число записано у звичній для людини десятковій системі числення та читається як шість тисяч вісімсот сімдесят чотири.

Число N може бути представлене розгорнутим записом:

N = a n p n + a n-1 p n-1 + … + a 1 p 1 + a 0 p 0

Тут число N виражено у вигляді суми, кожен доданок якої представляє добуток цифри на підставу системи числення, зведений у ступінь, що дорівнює номеру позиції (розряду) цієї цифри в числі:

цифра  (заснування) номер розряду

Повертаючись до розглянутого прикладу, наведемо розгорнутий запис числа N = (6874) 10:

(6874) 10 = 610 3 + 810 2 + 710 1 + 410 0 .

З розгорнутою формою запису числа пов'язаний універсальний спосіб переведення чисел з будь-якої системи числення до десяткової.

Наприклад, потрібно перевести шістнадцяткове число (E7B) 16 десяткову систему числення.

Спочатку нумеруємо розряди числа - праворуч наліво, від молодшого розряду до старших. Зважаємо, що нумерація розрядів починається з нуля.

Врахуємо відповідність цифр шістнадцяткової та десяткової систем числення: E – 14, B – 11. Тоді

Отже, завдання розв'язано: (E7B) 16 = (3707) 10 .

Аналогічним способом виконується переведення дробових чисел. Цифри, розташовані праворуч від коми, відповідають розрядам із негативними номерами.

N = (a n a n-1 …a 1 a 0 ,a -1 a -2 …a -k) p

Розглянемо переклад дробового восьмеричного числа(725,46) 8 десяткову систему числення.

Нумеруємо розряди.

Зробимо обчислення та отримаємо результат у десятковій системі числення.

(725,46) 8 = 78 2 + 28 1 + 58 0 + 48 -1 + 68 -2 = 448 + 16 + 5 + 4/8 + 6/64 =

448 + 16 + 5 + 0,5 + 0,09375 = 469,59375

Отже, (725,46) 8 = (469,59375) 10 .

Дещо складніше виконується переведення чисел з десяткового в інші системи числення.

Методика заснована на послідовному цілісномуподілу з виділенням залишків як цифри шуканого числа. Вихідне число ділять на основу системи числення, яку здійснюють переклад. Результатом цілісного поділу буде приватний, представлений цілим числом, і залишок. Цей залишок буде найменшим розрядом шуканого числа. Отримане першому кроці приватне знову ділять на підставу необхідної системи числення, знову отримують приватне і залишок. Залишок зберігають як наступний розряд шуканого числа. Розподіл продовжують доти, доки чергове приватне не виявиться менше за основу необхідної системи числення. Це буде старшим розрядом шуканого числа. З нього та залишків, отриманих на останньому та попередніх кроках, формують шукане число.

Розберемо цю методику з прикладу. Нехай потрібно перевести число (894) 10 в семирічну систему числення.

894: 7 = 127, залишок 5

127: 7 = 18, залишок 1

18: 7 = 2 , залишок 4

Останнє приватне – 2 – менше за основу системи числення, в яку здійснюється переклад, – 7. Тепер можна записати шукане число: (2415) 7 .

Отже, (894) 10 = (2415) 7 .

Логічні основи ЕОМ

Алгебра логіки. Логічні висловлювання

Попередницею та складовоюАлгебри, за правилами якої функціонують цифрові пристрої ЕОМ, є логікою алгебри. Ця алгебра оперує логічними висловлюваннями, зміст яких можна оцінити як відповідну дійсності (істина) або невідповідну дійсності (брехня).

Логічне висловлювання – це оповідне речення, істинність чи хибність якого можна оцінити.

Приклади справжніх висловлювань: «вода – це рідина», «після зими настане весна», «число 48 у 8 разів більше числа 6». Приклади хибних висловлювань: «річка Кама впадає в озеро Байкал», «горобець – це яструб», «число 2 більше від числа 3».

У першому реченні дієслово вжито у наказовому способі. Споживна пропозиція не може бути логічним висловом.

Друга пропозиція не є логічним висловлюванням через абсурдність понять «площа відрізка» та «довжина куба».

Третя пропозиція є запитальною, тому вона також не може бути логічним висловлюванням.

Логічним висловлюванням, причому хибним, є четверте речення.

Перша пропозиція є логічним висловом. Воно хибно, тому що насправді найближчою до Сонця планетою є Меркурій.

Друга пропозиція - не оповідальна, а оклику, тому вона не є логічним висловлюванням.

Третя пропозиція могла б бути логічним висловлюванням, якби відомостей, що містяться в ньому, було достатньо, щоб оцінити його істинність або хибність. Однак неможливо судити про належність числа X зазначеному інтервалу, оскільки саме це число невідоме. Тому третя пропозиція також не є логічним висловом.

Бульова алгебра. Основні логічні операції

Логічні пристрої ЕОМ проектуються на основі математичного апарату булевої алгебри, названої на честь англійського математика Джорджа Буля, який сформулював її основні поняття та правила. Це алгебра двійкових змінних, констант та функцій, що приймають лише два значення – одиниця(В алгебрі логіки їй відповідає значення ІСТИНА) та нуль(В алгебрі логіки - БРЕХНЯ).

Основними операціями булевої алгебриє інверсія, кон'юнкція, диз'юнкція. Їхні російські назви – відповідно заперечення, логічне множення, логічне додавання. Інакше – операції НЕ, І, АБО.

Позначення логічних операцій булевої алгебри

A та B – логічні висловлювання.

Для наочного уявлення та виконання логічних обчислень використовують таблиці істинності.

Нижче наведено таблиці істинності основних логічних операцій.

Інверсія

Інверсія – функція одного аргументу, яким є логічне висловлювання A. Якщо A хибно, то істинно, і навпаки.

Кон'юнкція та диз'юнкція

Кон'юнкція та диз'юнкція – функції двох і більше аргументів. Їх результатом є складне (складове) логічне висловлювання, яке в залежності від значень аргументів функції набуває значення 1 або 0. Таблиця істинності повинна включати всі можливі комбінації значень аргументів – простих чи складних логічних висловлювань. Усього таких комбінацій 2 n , де n – кількість аргументів. У найпростішому випадку, коли оперуємо двома логічними висловлюваннями A та B, таблиці істинності виглядають так.

Кон'юнкція Диз'юнкція

Аргументи

Результат

Аргументи

Результат

Для довільної кількості аргументів правильні два правила.

1. Якщо серед аргументів кон'юнкціїє хоча б один, який завжди набуває значення 0 (БРЕХНЯ), то результат кон'юнкції незалежно від значень інших аргументів теж 0 (БРЕХНЯ).

2. Якщо серед аргументів диз'юнкціїє хоча б один, який завжди набуває значення 1 (ІСТИНА), то результат диз'юнкції незалежно від значень інших аргументів теж 1 (ІСТИНА).

Наведені таблиці істинності підтверджують ці правила.

Деякі вислови звичайної людської мови можна зіставляти логічним функціям. Наприклад, висловлювання «Для отримання відмінної оцінки на іспиті потрібно якнаявність заліку з практики, так іхороше знання теоретичного матеріалу відповідає кон'юнкції. Висловлювання «Щоб шкіра придбала засмагу, треба кілька днів провести на пляжі при спекотному сонці абокілька разів відвідати солярій» представляє диз'юнкцію. Ще приклад диз'юнкції: «Щоб схуднути, треба більше працювати фізично і менше їсти». Проілюструємо останній вислів таблицею істинності.

Висловлюванням, що представляють кон'юнкцію, зазвичай відповідають конструкції. AіB», « якA,так іB», « Aразом зB»; які представляють диз'юнкцію – « AабоB». Можуть бути винятки: приклад – розібране наприкінці попередньої сторінкипропозиція, запрошення, речення.

Конструкцій типу « абоA,абоB», « AабоB», « абоA,абоB» відповідає функція, звана строгою диз'юнкцією. Її відмінність від звичайної диз'юнкції полягає в тому, що вона дорівнює 1 тільки у тому випадку, коли значення її аргументів різні. Позначення суворої диз'юнкції –A  B, інші назви – нерівнозначність,виключнеАБО (XOR в мовах програмування), додавання за модулем 2. Нижче наведено таблицю істинності суворої диз'юнкції.

Сувора диз'юнкція (нерівнозначність)

У сучасній алгебрі логіки визначено ще дві основні операції. еквівалентністьі імплікація.

Еквівалентність (еквівалентність, рівнозначність) - це функція, протилежна суворій диз'юнкції. Вона набуває значення ІСТИНА тоді, коли її аргументи або істинні, або хибні. Її позначення: A  B.

Еквіваленція (рівнозначність)

Імплікація – функція двох логічних аргументів. Її позначення: A  B. Таблиця істинності функції «імплікація» має такий вигляд.

Імплікація

Імплікація може бути виражена через основні операції булевої алгебри: A  B = A  B.

У мовах програмування еквівалентності відповідає функція EQV, імплікації – IMP.

Функції «еквівалентність» та «імплікація» також можуть бути співвіднесені з окремими висловлюваннями російської мови. Еквіваленції відповідають висловлювання типу: « A еквівалентно B» ; « A тоді і лише тоді, коли B» ; « A необхідно і достатньо для B». Імплікації відповідають конструкції: « Якщо A, то B» ; « B, якщо A» ; « B необхідно для A» ; « A достатньо для B» ; « A тільки тоді, коли B» ; « B тоді коли A». Класичним прикладом імплікації є фраза «Якщо дощ, то на небі хмари». Позначимо A= «Йде дощ», B= "На небі хмари" і складемо таблицю істинності.

"Дощ не йде, на небі немає хмар" - ясний сонячний день,

складове висловлювання істинно

Дощ не йде, на небі хмари - сухий похмурий день,

складове висловлювання істинно

"Йде дощ, на небі немає хмар" - такого не буває,

складове висловлювання хибно

Дощ йде, на небі хмари - похмурий дощовий день,

складове висловлювання істинно

Треба наголосити, що формалізація висловлювань людської мови має дуже обмежений характер. Більшість фраз і речень російської, як розмовної, і літературної, взагалі є висловлюваннями з погляду алгебри логіки. Це пов'язано з наявністю безлічі нюансів письма та мови, які неможливо охопити в рамках формальної логіки, з емоційним забарвленням і суб'єктивністю суджень, а також з незмінністю того факту, що у світі набагато більше відносних істин, ніж абсолютних. Тому експерименти зі співвіднесенням операцій формальної логіки з висловлюваннями людської мови застосовні лише до сприйманих речень, що констатують найзагальніші і прості факти.

Отже, базисом сучасної алгебри логіки є п'ять основних логічних операцій: інверсія, кон'юнкція, диз'юнкція, імплікація, еквівалентність. Всі інші операції можуть бути виражені комбінаціями трьох операцій булевої алгебри: інверсії, кон'юнкції та диз'юнкції.

При аналізі складних логічних висловлювань необхідно пам'ятати про пріоритет логічних операцій: за відсутності дужок спочатку виконується заперечення, далі в порядку зменшення пріоритету йдуть кон'юнкція, сувора диз'юнкція, диз'юнкція, імплікація і в останню чергу - еквіва. Дужки можуть змінити цей порядок.

У цифровій техніці широкого поширення набули мікросхеми, побудовані на логічних елементах І-НЕ та АБО-НЕ. Технологічно вони реалізуються найпростіше. Були навіть спроби побудови комп'ютерів, які з цих елементів. З ними пов'язані ще дві двійкові алгебри – алгебра Шеффера та алгебра Пірса. Операція І-НЕ носить назву "штрих Шеффера", операція АБО-НЕ - "стрілка Пірса". Позначення: відповідно A  B і A  B. З позицій булевої алгебри обидві операції складені.

A  B = A  B

A  B = A  B

Таблиці істинності цих функций:

Штрих Шеффера Стрілка Пірса

Аргументи

Результат

Аргументи

Результат

Позначення у цифровій техніці.