Понятие информации.  Что такое бит

Бит - это единица измерения объема информации. Клод Шэннон предложил использовать термин bit в 1948 году для обозначения единицы информации. Сейчас мы обсудим историю и содержание данного понятия подробнее.

Что же это такое

Если говорить о том, как переводится слово «бит», что это за понятие, и каковы его истоки, следует сказать, что английское словосочетание binary digit, от которого возник термин, происходит из английского языка и означает Кроме того, здесь заложена определенная игра слов. Бит - это кусочек или частица.

Если учесть, что один разряд в может принимать лишь два значения, которые исключают друг друга: да/нет, 1/0, мы получаем еще одно определение. Таким образом, бит - это такое число информации, которое дает возможность однозначно дать ответ на поставленный системой вопрос. В электронике один двоичный разряд соответствует одному двоичному триггеру, который имеет два устойчивых состояния.

Разновидности

Итак, можно сделать вывод, что один бит - это единица, равная единому разряду в условиях Возможны 2 физические реализации единого двоичного разряда. Однофазный бит предполагает использование одного выхода двоичного триггера, при этом нулевой уровень может означать как сигнал «0», так и возможную неисправность схемы.

В свою очередь, высокий уровень отвечает за сигнал «1» и полную исправность схемы. Двухфазный бит предполагает использование обоих выходов двоичного триггера. В случае исправной схемы один из 2 уровней высокий, второй — низкий. Следует отметить, что высокий уровень для обоих проводов, а также низкий уровень для обоих проводов свидетельствуют о неисправности схемы.

Передача данных

Если говорить о вычислительной технике, а также сетях по там обычно значения нуля и единицы передаются при помощи различных уровней напряжения или тока. Следует отметить, что в сфере особенно если речь идет о стандартах и документации, слово «бит» применяется часто в значении «двоичный разряд». Интересно, что аналогом бита для стал кубит (q-бит).

Байт

Совокупность данных в компьютере, состоящая из 8 битов, называется байтом. Именно 8 битов являются основой для представления определенных символов, к примеру буквы «А». Также данная величина позволяет работать с двоичной арифметикой. Другими словами, байт представляет собой команду битов, отвечающую за отдельную деталь в определенном файле.

При этом каждый из байтов имеет уникальный адрес в памяти персонального компьютера. Биты вместе с байтами обладают нумерацией в диапазоне 0-7 и считаются справа налево. К примеру, если воспользоваться номером бита 76543210, значение его будет 01000001, а при выдаче на принтер данного информационного кода будет сгенерирована привычная буква «А».

Подчеркнем, что число включенных битов на едином байте нечетно. Следует учесть, что когда команда обращается к байту, персональный компьютер его проверяет, и если количество включенных битов является четным, система сообщает об ошибке. Что касается ошибки четности, она может быть вызвана сбоем оборудования либо представлять собой случайное явление, однако подобное происходит крайне редко.

При обработке данных в персональном компьютере посредством электронных цепей проходят многочисленные электрические импульсы. Подобные цепи состоят из специальных проводников, а также логических вентилей, так названы электронные микроустройства. При этом импульсы, которые проходят через вентили, способны «гаситься». Благодаря этому обрабатываются данные. В завершение еще раз напомним, что бит - это, прежде всего, крохотная единица информации, о которой мы с вами узнали немного больше.

- «Беспроводные информационные технологии» ООО Москва, организация, техн. Источник: http://www.vedomosti.ru/newspaper/article.shtml?2004/10/29/82849 БИТ безопасные информационые технологии кафедра СПбГИТМО образование и наука, Санкт Петербург, техн … Словарь сокращений и аббревиатур

А; мн. род. бит и ов; м. [от англ. сокращения BInary digiT двоичный знак] Минимальная единица измерения количества информации и объёма памяти компьютера (равна одной ячейке или одному двоичному знаку типа да нет). * * * бит (англ. bit, от… … Энциклопедический словарь

Бит в секунду, бит/с (англ. bits per second, bps) базовая единица измерения скорости передачи информации, используемая на физическом уровне сетевой модели OSI или TCP/IP. На более высоких уровнях сетевых моделей, как правило, используется более… … Википедия

- (исп.). То же, что реал, монета ценностью в 16 1/2 коп. Словарь иностранных слов, вошедших в состав русского языка. Чудинов А.Н., 1910. БИТ 1 [англ. beat бить] муз. выдержанная в равномерном темпе танцевальная и легкая музыка в размере 4/4 с… … Словарь иностранных слов русского языка

- (англ. bit от binary двоичный и digit знак), двоичная единица, в теории информации единица количества информации. Бит в вычислительной технике двоичная цифра, двоичный разряд. число бит памяти ЭВМ определяет максимальное количество двоичных цифр … Большой Энциклопедический словарь

Двоичная единица информации, двоичный знак Словарь русских синонимов. бит сущ., кол во синонимов: 2 биг бит (2) е … Словарь синонимов

- (bit) Аббревиатура понятия двоичный разряд. См.: двоичная запись (binary notation). Бизнес. Толковый словарь. М.: ИНФРА М, Издательство Весь Мир. Грэхэм Бетс, Барри Брайндли, С. Уильямс и др. Общая редакция: д.э.н. Осадчая И.М.. 1998. Бит … Словарь бизнес-терминов

Бит, а; р. мн. ов, счётн. ф.бит (единица количества информации) … Русское словесное ударение

БИТ, а, муж. (спец.). Единица измерения количества информации (в 1 знач.). Толковый словарь Ожегова. С.И. Ожегов, Н.Ю. Шведова. 1949 1992 … Толковый словарь Ожегова

Единица количества информации, которая содержится в сообщении типа «да» – «нет». Бит в вычислительной технике – двоичная цифра, двоичный разряд, принимающий только два значения – 0 или 1. Одним битом можно выразить только два числа – 0 и 1.… … Энциклопедия техники

- (бит, bit) (от англ. binary двоичный и digit знак, цифра), единица кол ва информации в двоичной системе. Обычно последовательность из восьми Б. наз. байтом. Физический энциклопедический словарь. М.: Советская энциклопедия. Главный редактор А. М.… … Физическая энциклопедия

Теоретический минимум

Информация относится к фундаментальным, неопределяемым понятиям науки информатика. Тем не менее, смысл этого понятия должен быть разъяснен. Предпримем попытку рассмотреть это понятие с различных позиций.
Термин информация происходит от латинского слова
informiatio , что означает сведения, разъяснения, изложение. В настоящее время наука пытается найти общие свойства и закономерности, присущие многогранному понятию информация, но пока это понятие во многом остается интуитивным и получает различные смысловые наполнения в различных отраслях человеческой деятельности:

    в быту информацией называют любые данные, сведения, знания, которые кого-либо интересуют. Например, сообщение о каких-либо событиях, о чьей-либо деятельности и т.п.;

    в технике под информацией понимают сообщения, передаваемые в форме знаков или сигналов (в этом случае есть источник сообщений, получатель (приемник) сообщений, канал связи);

    в кибернетике под информацией понимают ту часть знаний, которая используется для ориентирования, активного действия, управления, т.е. в целях сохранения, совершенствования, развития системы;

    в теории информации под информацией понимают сведения об объектах и явлениях окружающей среды, их параметрах, свойствах и состоянии, которые уменьшают степень неопределенности, неполноты имеющихся о них знаний.

Применительно к компьютерной обработке данных под информацией понимают некоторую последовательность символических обозначений (букв, цифр, закодированных графических образов и звуков и т.п.), несущую смысловую нагрузку и представленную в понятном компьютеру виде. Каждый новый символ в такой последовательности символов увеличивает информационный объем сообщения.

Информация может существовать в виде:

    текстов, рисунков, чертежей, фотографий;

    световых или звуковых сигналов;

    радиоволн;

    электрических и нервных импульсов;

    магнитных записей;

    жестов и мимики;

  • запахов и вкусовых ощущений;

    хромосом, посредством которых передаются по наследству признаки и свойства организмов.

Свойства информации (с точки зрения бытового подхода к определению информации):

релевантность - способность информации соответствовать нуждам (запросам) потребителя;

полнота - свойство информации исчерпывающе (для данного потребителя) характеризовать отображаемый объект или процесс;

своевременность - способность информации соответствовать нуждам потребителя в нужный момент времени;

достоверность - свойство информации не иметь скрытых ошибок. Достоверная информация со временем может стать недостоверной, если устареет и перестанет отражать истинное положение дел;

доступность - свойство информации, характеризующее возможность ее получения данным потребителем;

защищенность - свойство, характеризующее невозможность несанкционированного использования или изменения информации.

эргономичность - свойство, характеризующее удобство формы или объема информации с точки зрения данного потребителя.

1 бит - минимальная единица измерения информации. При вероятностном подходе к измерению информации это количество информации, уменьшающее неопределенность знаний в 2 раза.

Связь между единицами измерения информации:

1 байт = 8 бит;

1 Кб (килобайт) = 2 10 (1024) байт = 2 13 бит;

1 Мб (мегабайт) = 2 10 (1024) Кб *== 2 20 (1 048 576) байт = 2 23 бит;

1 Гб (гигабайт) = 2 10 Мб = 2 20 Кб = 2 30 байт = 2 33 бит;

1 Тб (терабайт) = 2 10 Гб = 2 20 Мб = 2 30 Кб = 2 40 байт = 2 43 бит.

При объемном подходе к измерению информации информативность сообщения определяется количеством символов, его составляющих.

Кодирование информации подразумевает преобразование знаков одной знаковой системы в знаки или группы знаков другой знаковой системы. Обратное преобразование называют декодированием.

Кодирующим отображением называется такое отображение F множества слов в некотором алфавите на множество слов в том же или каком-то другом фиксированном алфавите. Обычно исходное множество для кодирующего отображения F называется входным алфавитом, а результат отображения - выходным алфавитом.

Применение кодирующего отображения F к любому слову из входного алфавита называется кодированием, а само кодирующее отображение F - кодом. То есть код - это правило, по которому осуществляется кодирование.

При кодировании информации для представления ее в памяти ЭВМ используется двоичный способ, т.е. любая информация - будь то числа, текст, графическое изображение, звук или видео - представляется универсальным двоичным кодом. Алфавит этого кода составляют символы 0 и 1. Почему был выбран именно этот способ кодирования? В некоторых из первых ЭВМ предпринимались попытки внедрить десятичный или троичный код, но ни один из этих вариантов кодирования не дожил до современности. Причина проста: два существенно различных состояния, представляющих, соответственно, 0 или 1, технически реализовать значительно проще, чем три или десять. Действительно, отсутствие напряжения может обозначать 0, наличие - 1; отсутствие намагниченности участка носителя информации - 0, присутствие намагниченности - 1 и т.д. Поэтому другие варианты были просто изжиты. Каждая цифра машинного кода несет 1 бит информации.

Числовая информация была первым видом информации, который начали обрабатывать ЭВМ, и долгое время она оставалась единственным видом. Поэтому неудивительно, что в современном компьютере существует большое разнообразие типов чисел.

Целые числа. Целые числа могут представляться в компьютере со знаком или без знака.

Целые числа без знака. Обычно занимают в памяти компьютера один или два байта. В однобайтовом формате принимают значения от 00000000 2 до 11111111 2 . В двухбайтовом формате - от 00000000 00000000 2 до 11111111 11111111 2 .

Диапазоны значений целых чисел без знака

Формат числа в байтах

Диапазон

Запись с порядком

Обычная запись

0 ... 2 8 -1

0 ... 255

0 ... 2 16 -1

0 ... 65535

Целые числа со знаком. Обычно занимают в памяти компьютера один, два или четыре байта, при этом самый левый (старший) разряд содержит информацию о знаке числа.

Диапазоны значений целых чисел со знаком

Формат числа в байтах

Диапазон

Запись с порядком

Обычная запись

2 7 ... 2 7 -1

128 ... 127

2 15 ... 2 15 -1

32768 ... 32767

2 31 ... 2 31 -1

2147483648 ... 2147483647

Для того чтобы различать положительные и отрицательные числа, в их двоичном представлении выделяется знаковый разряд. По традиции используется самый старший (левый) бит, причем нулевое значение в нем соответствует знаку плюс, а единичное - минусу.

Из сказанного следует, что положительные числа представляют собой обычное двоичное изображение числа (с нулем в знаковом бите). А вот для записи отрицательных чисел используется специальный код, называемый в литературе дополнительным. Для практического получения кода отрицательных чисел используется следующий алгоритм:

модуль числа перевести в двоичную форму;

проинвертировать каждый разряд получившегося кода, т.е. заменить единицы нулями, а нули - единицами;

к полученному результату обычным образом прибавить единицу.

Вещественные числа. Для хранения этого типа данных в памяти современных ЭВМ обычно использу-ется представление чисел с плавающей запятой. Оно фактически взято из математики, где любое число А в системе счисления с основанием Q предлагается записывать в виде

А= (±М) * Q ±р ,

Где М называют мантиссой, а показатель степени Р - порядком числа. Для обозначения операции умножения мы используем компьютерный вариант - "*".

Если "плавающая" точка расположена в мантиссе перед первой значащей цифрой, то при фиксированном количестве разрядов, отведённых под мантиссу, обеспечивается запись максимального количества значащих цифр числа, то есть максимальная точность представления числа в машине. Из этого следует:

Мантисса должна быть правильной дробью, у которой первая цифра после точки (запятой в обычной записи) отлична от нуля: 0.1 2 <= |M | < 1. Если это требование выполнено, то число называется нормализованным

Мантиссу и порядок q -ичного числа принято записывать в системе с основанием q , а само основание - в десятичной системе. Примеры нормализованного представления:

Десятичная система Двоичная система

753.15 = 0.75315 . 10 3 ; -101.01 = -0.10101 . 2 11 (порядок 11 2 = 3 10)

0.000034 = - 0.34 . 10 -4 ; 0.000011 = 0.11 . 2 -100 (порядок -100 2 =-4 10).

Вещественные числа в компьютерах различных типов записываются по-разному, тем не менее, все компьютеры поддерживают несколько международных стандартных форматов, различающихся по точности, но имеющих одинаковую структуру следующего вида:

Здесь порядок n -разрядного нормализованного числа задается в так называемой смещенной форме :

если для задания порядка выделено k разрядов, то к истинному значению порядка, представленного в дополнительном коде , прибавляют смещение, равное (2 k-1 - 1). Например, порядок, принимающий значения в диапазоне от -128 до +127, представляется смещенным порядком, значения которого меняются от 0 до 255.

Использование смещенной формы позволяет производить операции над порядками, как над беззнаковыми числами, что упрощает операции сравнения, сложения и вычитания порядков, а также упрощает операцию сравнения самих нормализованных чисел.

Чем больше разрядов отводится под запись мантиссы, тем выше точность представления числа. Чем больше разрядов занимает порядок, тем шире диапазон от наименьшего отличного от нуля числа до наибольшего числа, представимого в машине при заданном формате.

Стандартные форматы представления вещественных чисел:

1) одинарный - 32-разрядное нормализованное число со знаком, 8-разрядным смещенным порядком и 24-разрядной мантиссой (старший бит мантиссы, всегда равный 1, не хранится в памяти, и размер поля, выделенного для хранения мантиссы, составляет только 23 разряда).

2) двойной - 64-разрядное нормализованное число со знаком, 11-разрядным смещенным порядком и 53-разрядной мантиссой (старший бит мантиссы не хранится, размер поля, выделенного для хранения мантиссы, составляет 52 разряда).

3) расширенный - 80-разрядное число со знаком, 15-разрядным смещенным порядком и 64-разрядной мантиссой. Позволяет хранить ненормализованные числа.

Следует отметить, что вещественный формат с m -разрядной мантиссой позволяет абсолютно точно представлять m -разрядные целые числа, т. е. любое двоичное целое число, содержащее не более m разрядов, может быть без искажений преобразовано в вещественный формат.

Таким образом, при использовании метода представления вещественных чисел с плавающей запятой в памяти фактически хранятся два числа: мантисса и порядок. Разрядность первой части определяет точность вычислений, а второй - диапазон представления чисел.

К описанным выше общим принципам представления вещественных чисел необходимо добавить правила кодирования мантиссы и порядка. Эти правила могут отличаться для различных машин. Системой счисления называется совокупность приемов наименования и записи чисел. В любой системе счисления для представления чисел выбираются некоторые символы (их называют цифрами) , и числа получаются в результате каких-либо операций над цифрами данной системы счисления.

Если значение цифры не зависит от ее местоположения в записи числа, то такая система счисления называется непозиционной. Наиболее известным примером непозиционной системы счисления является римская.

Система называется позиционной, если значение каждой цифры (ее вес) изменяется в зависимости от ее положения (позиции) в последовательности цифр, изображающих число.

Число единиц какого-либо разряда, объединяемых в единицу более старшего разряда, называют основанием позиционной системы счисления. Если количество таких цифр равно Р, то система счисления называется Р-ичной. Основание системы счисления совпадает с количеством цифр, используемых для записи чисел в этой системе счисления.

Запись произвольного числа х в Р-ичной позиционной системе счисления основывается на представлении этого числа в виде многочлена

где P – основание системы счисления; n – количество цифр в целой части числа, m – в дробной части.

Например,

Десятичная система счисления: P =10, алфавит системы: {0,1,2,3,4,5,6,7,8,9};

Двоичная система счисления: P =2, алфавит системы: {0, 1};

Восьмеричная система счисления: P =8, алфавит системы: {0,1,2,3,4,5,6,7};

Шестнадцатеричная система счисления: P =16, алфавит системы: 0,1,2,3,4,5,6,7,8,9, A , B , C , D , E , F }.

Таблица соотношения чисел вышеперечисленных систем счисления:

P=10

P=16

1000

1001

1010

1011

1100

1101

1110

1111

10000

При переводе чисел из десятичной системы счисления в систему с основанием Р > 1 обычно используют следующий алгоритм:

если переводится целая часть числа, то она делится на Р, после чего запоминается остаток от деления. Полученное частное вновь делится на Р, остаток запоминается. Процедура продолжается до тех пор, пока частное не станет равным нулю. Остатки от деления на Р выписываются в порядке, обратном их получению;

если переводится дробная часть числа, то она умножается на Р, после чего целая часть запоминается и отбрасывается. Вновь полученная дробная часть ум-ножается на Р и т.д. Процедура продолжается до тех пор, пока дробная часть не станет равной нулю. Целые части выписываются после двоичной запятой в порядке их получения. Результатом может быть либо конечная, либо периодическая двоичная дробь. Поэтому, когда дробь является периодической, приходится обрывать умножение на каком-либо шаге и довольствоваться приближенной записью исходного числа в системе с основанием Р.

Например:

1) число 118 10 перевести в двоичную, восьмеричную и шестнадцатеричную системы счисления.

Таким образом, 118 10 =1110110 2 , 118 10 =166 8 , 118 10 =76 16 .

2) перевести десятичные дроби 0,5625 10 и 0,8 10 в двоичную систему счисления

5625

1250

2500

5000

0000

Для смешанных чисел (имеющих целую и дробную части) каждая часть переводится по своему правилу, затем выписывается общий ответ.

При переводе чисел из системы счисления с основанием Р в десятичную систему счисления необходимо пронумеровать разряды целой части справа налево, начиная с нулевого, и в дробной части, начиная с разряда сразу после запятой слева направо (начальный номер - 1). Затем вычислить сумму произведений соответствующих значений разрядов на основание системы счисления в степени, равной номеру разряда. Это и есть представление исходного числа в десятичной системе счисления.

Например, перевести числа 1100111 2 и 10011,11 2 в 10-ю систему счисления.

1100111 2 =1 × 2 6 +1 × 2 5 +0 × 2 4 +0 × 2 3 +1 × 2 2 +1 × 2 1 +1 × 2 0 =103 10

10011,11 2 =1 × 2 4 +0 × 2 3 +0 × 2 2 +1 × 2 1 +1 × 2 0 +1 × 2 -1 +1 × 2 -2 =19,75 10

Перевод чисел из двоичной системы в восьмеричную производится «делением» двоичного числа на группы по 3 цифры (триады) с конца. Каждая группа преобразуется числом в новой системе счисления, например: 10.000.101 2 =205 8 . При переводе чисел из двоичной вшестнадцатеричную, аналогично, «делим» двоичное число на тетрады, то есть на группы по 4 цифры, например, 110.0110.1011=66 B .

Арифметические действия над числами в любой позиционной системе счисления производятся по тем же правилам, что и в десятичной системе, так как все они основываются на правилах выполнения действий над соответствующими многочленами. При этом нужно только пользоваться теми таблицами сложения и умножения, которые соответствуют данному основанию Р системы счисления.

Информация относится к фундаментальным, неопределяемым понятиям науки информатика. Тем не менее смысл этого понятиядолжен быть разъяснен. Предпримем попытку рассмотреть это понятие с различных позиций.

Термин информация происходит от латинского слова informatio , что означает сведения, разъяснения, изложение . В настоящее время наука пытается найти общие свойства и закономерности, присущие многогранному понятию информация, но пока это понятие во многом остается интуитивным и получает различные смысловые наполнения в различных отраслях человеческой деятельности:

    в быту информацией называют любые данные, сведения, знания, которые кого-либо интересуют. Например, сообщение о каких-либо событиях, о чьей-либо деятельности и т.п.;

    в технике под информацией понимают сообщения, передаваемые в форме знаков или сигналов (в этом случае есть источник сообщений, получатель (приемник) сообщений, канал связи);

    в кибернетике под информацией понимают ту часть знаний, которая используется для ориентирования, активного действия, управления, т.е. в целях сохранения, совершенствования, развития системы;

    в теории информации под информацией понимают сведения об объектах и явлениях окружающей среды, их параметрах, свойствах и состоянии, которые уменьшают имеющуюся о них степень неопределенности, неполноты знаний.

Информация может существовать в виде:

    текстов, рисунков, чертежей, фотографий;

    световых или звуковых сигналов;

    радиоволн;

    электрических и нервных импульсов;

    магнитных записей;

    жестов и мимики;

    запахов и ощущений;

    хромосом, посредством которых передаются по наследству признаки и свойства организмов, и т.д.

Свойства информации

Свойства информации (с точки зрения бытового подхода к определению);

    релевантность - способность информации соответствовать нуждам потребителя;

    полнота;

    своевременность;

    достоверность;

    доступность;

    защищенность;

    эргономичность - свойство, характеризующее удобство формы или объема информации с точки зрения данного потребителя.

С этой точки зрения свойства информации:

    запоминаемость;

    передаваемость;

    воспроизводимость

    преобразуемость

    стираемость.

Фундаментальное свойство информации - преобразуемость. Оно означает, что информация может менять способ и форму своего существования. Копируемость есть разновидность преобразования информации, при котором ее количество не меняется. В общем случае количество информации в процессах преобразования меняется, но возрастать не может. Высшей формой информации, проявляющейся - в управлении в социальных системах, являются знания.

Информационные процессы

Под информационным понимают процесс, связанный с определенными операциями над информацией в ходе которого может измениться содержание информации или форма ее представления.

В информатике к таким процессам относят:

получение,

хранение,

передачу,

обработку,

использование информации.

Определение количества информации

Вероятностный подход к измерению информации

Любая информация может рассматриваться как уменьшение неопределенности наших знаний об окружающем мире (в теории информации принято говорить именно об уменьшении неопределенности, а не об увеличении объема знаний). Случайность события заключается в том, что реализация того или иного исхода имеет некоторую степень неопределенности. Пусть, например, абсолютно незнакомый нам ученик сдает экзамен, результатом которого может служить получение оценок 2, 3, 4 или 5. Поскольку мы ничего не знаем о данном ученике, то степень неопределенности всех перечисленных результатов сдачи экзамена совершенно одинакова. Напротив, если нам известно, как он учится, то уверенность в некоторых исходах будет больше, чем в других: так, отличник скорее всего сдаст экзамен на пятерку, а получение двойки для него - это нечто почти невероятное. Наиболее просто определить количество информации в случае, когда все исходы события могут реализоваться с равной долей вероятности . В этом случае для вычисления информации используется формула Хартли .

В более сложной ситуации, когда исходы события ожидаются с разной степенью уверенности, требуются более сложные вычисления по формуле Шеннона , которую обычно выносят за рамки школьного курса информатики. Очевидно, что формула Хартли является некоторым частным случаем более общей формулы Шеннона.

Формула Хартли была предложена в 1928 году американским инженером Р.Хартли. Она связывает количество равновероятных состояний N с количеством информации I в сообщении о том, что любое из этих состояний реализовалось.

Наиболее простая форма для данной формулы зафиксируется следующим образом:

2 I = N

Причем обычно значение N известно, а I приходится подбирать, что не совсем удобно. Поэтому те, кто знает математику получше, предпочитают преобразовать данную формулу так, чтобы сразу выразить искомую величину I в явном виде:

I = log 2 N

Единица информации носит название бит (от англ. Вinary digiT - двоичная цифра); таким образом, 1 бит - это информация о результате опыта с двумя равновероятными исходами.

Чем больше возможных исходов, тем больше информации в сообщении о реализации одного из них.

Пример 1. Из колоды выбрали 16 карт (все “картинки” и тузы) и положили на стол рисунком вниз. Верхнюю карту перевернули (дама пик). Сколько информации будет заключено в сообщении о том, какая именно карта оказалась сверху? Все карты одинаковы, поэтому любая из них могла быть перевернута с одинаковой вероятностью. В таких условиях применима формула Хартли. Событие, заключающееся в открытии верхней карты, для нашего случая могло иметь 16 возможных исходов. Следовательно, информация о реализации одного из них равняется

I = log 2 16 = 4 бита

Примечание. Если вы не любите логарифмы, можно записать формулу Хартли в виде 2 i = 16 и получить ответ, подбирая такое I , которое ей удовлетворяет.

Алфавитный (объемный) подход к измерению информации

Он заключается в определении количества информации в каждом из знаков дискретного сообщения с последующим подсчетом количества этих знаков в сообщении. Пусть сообщение кодируется с помощью некоторого набора знаков. Заметим, что если для данного набора установлен порядок следования знаков , то он называется алфавитом . Пусть алфавит, с помощью которого записываются все сообщения, состоит из N символов . Для простоты предположим, что все они появляются в тексте с одинаковой вероятностью. Тогда применима формула Хартли для вычисления информации

Термин "информация" происходит от латинского слова "informatio", что означает сведения, разъяснения, изложение. Несмотря на широкое распространение этого термина, понятие информации является одним из самых дискуссионных в науке.

В "Большом энциклопедическом словаре" информация определяется как "общенаучное понятие, включающее обмен сведениями между людьми, человеком и автоматом, автоматом и автоматом обмен сигналами в животном и растительном мире; передачу признаков от клетки к клетке, от организма к организму (генетическая информация). В настоящее время наука пытается найти общие свойства и закономерности, присущие многогранному понятию информация , но пока это понятие во многом остается интуитивным и получает различные смысловые наполнения в различных отраслях человеческой деятельности:

· в обиходе информацией называют любые данные или сведения, которые кого-либо интересуют. Например, сообщение о каких-либо событиях, о чьей-либо деятельности и т.п. "Информировать" в этом смысле означает "сообщить нечто , неизвестное раньше" ;

· в технике под информацией понимают сообщения, передаваемые в форме знаков или сигналов;

· в кибернетике под информацией понимает ту часть знаний, которая используется для ориентирования, активного действия, управления, т.е. в целях сохранения, совершенствования, развития системы (Н. Винер).

Понятие данные более общее чем информатика, в нем смысловые свойства сообщения как бы отступают на второй план. Когда нет необходимости подчеркнуть разницу между понятиями данные (вся совокупность сведений) и информация (новые полезные сведения) эти слова используют как синонимы .

В соответствии с этим для оценки количества информации используются разные единицы.

При передаче информации важно обратить внимание на то, какое количество информации пройдет через передающую систему. Ведь информацию можно измерить количественно, подсчитать. И поступают при подобных вычислениях самым обычным путем: абстрагируются от смысла сообщения, как отрешаются от конкретности в привычных всем нам арифметических действиях (как от сложения двух яблок и трех яблок переходят к сложению чисел вообще: 2+3).

1.2.2 Свойства информации

К важнейшим свойствам информации относятся:

  • полнота;
  • ценность;
  • своевременность (актуальность);
  • понятность;
  • доступность;
  • краткость;
  • и др.

Адекватность информации может выражаться в трех формах: семантической, синтаксичес-кой, прагматической.

Если ценная и своевременная информация выражена непонятным образом, она может стать бесполезной.

Информация становится понятной , если она выражена языком, на котором говорят те, кому предназначена эта информация.

Информация должна преподноситься в доступной (по уровню восприятия) форме. Поэтому одни и те же вопросы по-разному излагаются в школьных учебниках и научных изданиях.

Информацию по одному и тому же вопросу можно изложить кратко (сжато, без несущественных деталей) или пространно (подробно, многословно). Краткость информации необходима в справочниках, энциклопедиях, учебниках, всевозможных инструкциях.

1.2.1. Информатизация и компьютеризация общества. Информационные ресурсы.

Информационные процессы (сбор, обработка и передача информации) всегда играли важную роль в жизни общества. В ходе эволюции человечества просматривается устойчивая тенденция к автоматизации этих процессов.

Средства обработки информации — это всевозможные устройства и системы, созданные человечеством, и в первую очередь, компьютер — универсальная машина для обработки информации.

Компьютеры обрабатывают информацию путем выполнения некоторых алгоритмов.

Живые организмы и растения обрабатывают информацию с помощью своих органов и систем.

Человечество занималось обработкой информации тысячи лет. Существует мнение, что мир пережил несколько информационных революций.

Первая информационная революция связана с изобретением и освоением человеческого языка, который, точнее устная речь, выделила человека из мира животных. Это позволило человеку хранить, передавать, совершенствовать, увеличивать приобретенную информацию.

Вторая информационная революция заключалась в изобретении письменности. Прежде всего, резко возросли (по сравнению с предыдущим этапом) возможности по хранению информации. Человек получил искусственную внешнюю память. Организация почтовых служб позволила использовать письменность и как средство для передачи информации. Кроме того, возникновение письменности было необходимым условием для начала развития наук (вспомним Древнюю Грецию , например). С этим же этапом, по всей видимости, связано и возникновение понятия натуральное число . Все народы, обладавшие письменностью, владели понятием числа и пользовались той или иной системой счисления.

Все-таки, зафиксированное в письменных текстах знание было ограниченным, и, следовательно, мало доступным. Так было до изобретения книгопечатания .

Что обосновало третью информационную революцию. Здесь наиболее очевидна связь информации и технологии. Книгопечатание можно смело назвать первой информационной технологией. Воспроизведение информации было поставлено на поток, на промышленную основу. По сравнению с предыдущим этот этап не столько увеличил возможности по хранению (хотя и здесь был выигрыш: письменный источник - часто один-единственный экземпляр, печатная книга - целый тираж экземпляров, а следовательно, и малая вероятность потери информации при хранении (вспомним "Слово о полку Игореве ")), сколько повысил доступность информации и точность ее воспроизведения. Механизмом этой революции был печатный станок, который удешевил книгу и сделал информацию более доступной.

Четвертая революция, плавно переходящая в пятую , связана с созданием современных информационных технологий. Этот этап связан с успехами точных наук (прежде всего математики и физики) и характеризуется возникновением таких мощных средств связи, как телеграф (1794г. - первый оптический телеграф , 1841г. - первый электромагнитный телеграф), телефон (1876г.) и радио (1895г.), к которым по завершению этапа добавилось и телевидение (1921г.). Кроме средств связи появились новые возможности по получению и хранению информации - фотография и кино. К ним также очень важно добавить разработку методов записи информации на магнитные носители (магнитные ленты, диски). Но самым поразительным было создание современных компьютеров и средств телекоммуникаций.

В настоящее время термин "информационная технология" употребляется в связи с использованием компьютеров для обработки информации. Информационные технологии охватывают всю вычислительную технику и технику связи и, отчасти, — бытовую электронику, телевидение и радиовещание.

Они находят применение в промышленности, торговле, управлении, банковской системе , образовании, здравоохранении, медицине и науке, транспорте и связи, сельском хозяйстве, системе социального обеспечения, служат подспорьем людям различных профессий и домохозяйкам.

Народы развитых стран осознают, что совершенствование информационных технологий представляет самую важную, хотя дорогостоящую и трудную задачу.

В настоящее время создание крупномасштабных информационно-технологических систем является экономически возможным, и это обусловливает появление национальных исследовательских и образовательных программ, призванных стимулировать их разработку.

После решения задачи обработки информации результат должен быть выдан конечным пользователям в требуемом виде. Эта операция реализуется в ходе решения задачи выдачи информации. Выдача информации , как правило, производится с помощью внешних устройств вычислительной техники в виде текстов, таблиц, графиков и т.д.

Стержнем любой информационной технологии является выбор и реализация наиболее рационального информационного процесса, который можно определить как совокупность процедур по преобразованию и обработке информации.

В свою очередь информационной процедурой принято считать совокупность однородных операций, воздействующих определенным образом на информацию. Основными информационными процедурами являются: регистрация, сбор, передача, кодирование, хранение и обработка информации.

Реализация любой задачи конкретного пользователя требует создания системы информационного обслуживания, которую чаще называют информационной системой.

Пусть А={а1, а2, …, аn} - алфавит некоторого языка. А* - множество всевозможных последовательностей символов этого языка.

Язык - это подмножество А*, которое удовлетворяет двум системам правил: синтаксическим (голубая штриховка) и семантическим (штриховка бордо), причем семантическим правилам могут удовлетворять только те конструкции, которые удовлетворяют синтаксическим правилам.

Пример: ббсе - не удовлетворяет синтаксису русского языка

Петя съел трактор - все синтаксические правила соблюдены, но предложение не удовлетворяет семантике русского языка

Таким образом, знание языка означает

1. Знание его алфавита,

2. Знание синтаксических правил

3. Знание семантических правил

В этом случае вы сможете общаться и будете правильно поняты.

Преобразование конструкций одного языка в последовательность букв другого алфавита называется кодированием.

Если говорить о кодировании, то сначала надо определить, какую конструкцию языка будем рассматривать в качестве символа, т.е. некоторой неделимой конструкции.

Рассмотрим некоторое предложение языка Q. Предложение состоит из слов, которые в свою очередь состоят из букв. Возможны 3 варианта определения символа (неделимой конструкции языка):

1. символ = буква: предложение - последовательность букв алфавита. Такой подход используется при письменной записи.

2. символ = слово. Такое представление предложений используется в стенографии.

3. символ = предложение. Такая ситуация возникает при переводе с одного языка на другой, причем особенно ярко это проявляется при переводе пословиц, шуток, поговорок.

Проблемой кодирования начал заниматься великий немецкий математик Готфрид Вильгельм Лейбниц ; он доказал, что минимальное количество букв, необходимое для кодирования любого алфавита, равно 2.

Пример. Русский язык: 33 буквы*2 (прописные, строчные)-2(ъ,ь) + 10 знаков препинания +10 цифр = 84 символа. Обязательным условием правильного кодирования является возможность однозначного преобразования АÛВ. Сколько двоичных символов необходимо, чтобы закодировать один символ русского языка?

буква код
а
А
б
Б
в
В
м
М

Предположим, надо закодировать слово Мама. Закодируем его: 10011 0 10010 0. Сделайте обратное преобразование (декодирование). Возникают проблемы, т.к. не понятно, где заканчивается одна буква и начинается другая. Основное правило однозначного преобразования из А в В и обратно нарушено, причина - использование кода переменной длины, следовательно необходимо выбрать код одинаковой заранее определенной длины. Какой?

Вывод: чем меньше букв в алфавите, тем длиннее символ. В русском языке 33 буквы, слова в среднем состоят из 4-6 букв. В японском языке около 3000 иероглифов, в среднем 1 предложение ~ 1 иероглиф.

В вычислительных машинах используется двоичное кодирование информации любого типа: программы, текстовые документы, графические изображения , видеоклипы, звуки и т.д. Удивительно, но все это богатство информации кодируется с помощью всего двух состояний: включено или выключено (единица или ноль). Формирование представления информации называется ее кодированием . В более узком смысле под кодированием понимается переход от исходного представления информации, удобного для восприятия человеком, к представлению, удобному для хранения, передачи и обработки. В этом случае обратный переход к исходному представлению называется декодированием .

При любых видах работы с информацией всегда идет речь о ее представлении в виде определенных символических структур. Наиболее распространены одномерные представления информации, при которых сообщения имеют вид последовательности символов. Так информация представляется в письменных текстах, при передаче по каналам связи, в памяти ЭВМ . Однако широко используется и многомерное представление информации, причем под многомерностью понимается не только расположение элементов информации на плоскости или в пространстве в виде рисунков, схем, графов, объемных макетов и т.п., но и множественность признаков используемых символов, например цвет, размер, вид шрифта в тексте.

Драйвер - это программа-посредник между оборудованием и другими программами.

Таким образом, тексты хранятся на диске или в памяти в виде чисел и программным способом преобразовываются в изображения символов на экране.

1.2.5. Кодирование изображений

В 1756 году выдающийся русский ученый Михаил Васильевич Ломоносов (1711 -1765) впервые высказал мысль, что для воспроизведения любого цвета в природе достаточно смешать в определенных пропорциях три основных цвета: красный, зеленый, синий. Теория трехкомпонентности цвета утверждает, что в зрительной системе человека возникают нервные возбуждения трех типов, каждое из которых независимо от остальных.

Компьютерное кодирование изображений также построено на этой теории. Картинка разбивается вертикальными и горизонтальными линиями на маленькие прямоугольники. Полученная матрица прямоугольников называется растром , а элементы матрицы - пикселями (от англ. Picture"s element - элемент изображения). Цвет каждого пикселя представлен тройкой значений интенсивности трех основных цветов. Такой метод кодирования цвета называется RGB (от англ. red - красный, green - зеленый, blue - синий). Чем больше битов выделено для каждого основного цвета, тем большую гамму цветов можно хранить про каждый элемент изображения. В стандарте, называемом true color (реальный цвет), на каждую точку растра тратится 3 байта, по 1 байт на каждый основной цвет. Таким образом, 256 (=2 8) уровней яркости красного цвета, 256 уровней яркости зеленого цвета и 256 уровней яркости синего цвета дают вместе примерно 16,7 млн различных цветовых оттенков, это превосходит способность человеческого глаза к цветовосприятию.

Чтобы хранить всю картинку, достаточно записывать в некотором порядке матрицу значений цветов пикселей, например, слева направо и сверху вниз. Часть информации о картинке при таком кодировании потеряется. Потери будут тем меньше, чем мельче пиксели. В современных компьютерных мониторах с диагональю 15 -17 дюймов разумный компромисс между качеством и размером элементов картинки на экране обеспечивает растр в 768х1024 точки.