- •Глава 1. Введение в информатику
- •1.1. Понятие «инфоpматика»
- •1.2. Понятие «информация»
- •1.2.1. Определение информации
- •1.2.2. Классификация информации
- •1. По типу сигнала Информация
- •4. По форме представления –
- •5. По общественному значению –
- •1.2.3. Свойства информации
- •1.3. Информационная деятельность человека
- •1.4. Информатизация и информационное общество
- •1.5. Информационные процессы
- •1.5.1. Передача информации. Сигнал
- •1.6. Измерение количества информации
- •1.6.2. Содержательный подход к измерению информации
- •Формула Хартли:
- •1.6.3. Алфавитный подход к измерению информации
- •1.7. Информационные ресурсы и информационные технологии
- •1.7.1. Информационные системы
- •1.8. Кодирование. Двоичное кодирование
- •1.8.1. Кодирование текстовой информации
- •1.8.1.1. Кодовая таблица ascii
- •1.8.1.2. Международный стандарт Unicode
- •1.8.2. Представление графической информации
- •1.8.3. Кодирование звуковой информации
- •1.8.3.1. Оцифровка звука
- •1.8.3.2. Характеристики оцифрованного звука
- •1.8.4. Кодирование числовой информации
- •1.8.4.1. Кодирование целых чисел
- •1.8.4.2. Кодирование вещественных чисел
1.5.1. Передача информации. Сигнал
Передача информации – двухсторонний процесс (распространение информации в пространстве). Информация передаётся в форме сообщений от некоторого источника информации к её приёмнику посредством канала связи между ними. Источник посылает передаваемое сообщение, которое кодируется в передаваемый сигнал. Этот сигнал посылается по каналу связи (например, телефонная сеть, каналы теле- и радиосвязи, компьютерные сети и т.д.). В результате в приёмнике появляется принимаемый сигнал, который декодируется и становится принимаемым сообщением.
Передача информации по каналам связи часто сопровождается воздействием помех, вызывающих искажение и потерю информации (см. рис. 2).
Р ис. 2. Передача информации по каналам связи
Передача, обработка и хранение информации происходит в форме сигналов или знаков.
Сигнал – способ передачи информации, физический процесс, имеющий информационное значение. Любой сигнал переносится либо энергией, либо веществом.
Классификация сигналов.
1. по физической природе сигналы бывают электромагнитные, световые, звуковые, механические, биологические;
2. по способу восприятия выделяют сигналы зрительный, слуховой, осязательный, вкусовой, болевой, физиологический.
Сигнал может быть:
аналоговым – непрерывным, изменяющимся по амплитуде и по времени (скорость автомобиля, кардиограмма);
дискретным – принимающим конечное число значений (сигнал светофора, ноты, азбука Морзе).
К знакам можно отнести алфавит любого языка, знаки языка жестов, любые коды и шрифты, ноты и т.д.
Для обмена информацией между людьми используются естественные языки – русский, английский, китайский и др.
Существуют и формальные языки – нотная запись, математические формулы, языки программирования
Представление информации посредством языка производится с помощью алфавита – определённый набор знаков. (в основе русского языка лежит – кириллица-33 знака, в английском лежит – латиница – 26 знаков, в китайском – иероглифы, в математических выражениях алфавит состоит из цифр).
В качестве знаков алфавита используются не только цифры и буквы, но и другие знаки: знаки химических элементов, ноты дорожные знаки и др.
Знаки могут иметь различную физическую природу: звуки (фонемы), изображения на бумаге (буквы при письме, печати), последовательности электрических импульсов (обработка на компьютере).
Последовательности символов алфавита образуют в соответствии с правилами грамматики основные объекты языка – слова. Из слов в соответствии с синтаксисом образуются предложения.
Основное отличие формальных языков от естественных состоит в наличии жестко зафиксированного алфавита и строгих правил грамматики и синтаксиса.
1.6. Измерение количества информации
Существует два подхода к измерению информации: содержательный и алфавитный.
Содержательный подход связывает количество информации с содержанием сообщения. В алфавитном подходе учитывается последовательность сигналов или символов.
1.6.2. Содержательный подход к измерению информации
Люди обмениваются информацией в форме сообщений. Сообщение — это форма представления информации в виде речи, текстов, жестов, взглядов, изображений, цифровых данных, графиков, таблиц и т.п.
Одно и то же информационное сообщение (статья в газете, объявление, письмо, телеграмма, справка, рассказ, чертёж, радиопередача и т.п.) может содержать разное количество информации для разных людей — в зависимости от их предшествующих знаний, от уровня понимания этого сообщения и интереса к нему.
Сообщение информативно (содержит ненулевую информацию), если оно пополняет знания человека. Информативность одного и того же сообщения может быть разной для разных людей. Сообщение несет информацию для человека, если содержащиеся в сообщении сведения являются новыми и понятными для него.
Если мы кидаем шестигранный кубик, то мы не знаем перед броском, какой стороной он упадет на поверхность. В этом случае, возможно получить один результат из шести равновероятных. Неопределенность знаний равна шести, т.к. именно шесть равновероятных событий может произойти. Когда после броска кубика мы получаем зрительное сообщение о результате, то неопределенность наших знаний уменьшается в шесть раз.
Но мы не получаем информации в ситуации, когда происходит одно событие из одного возможного. Например: мы бросаем монету. Предположим, что у монеты обе стороны «орел». В этом случае не существует неопределенности знаний перед броском, так как мы заранее знаем, что выпадет в любом случае «орел». Мы не получим новой информации, так как ответ знали заранее и количество информации в этом случае будет равно нулю, так как сообщение о результатах броска неинформативно.
Следовательно, для того чтобы количество информации имело положительное значение, необходимо получить сообщение о том, что произошло событие как минимум из двух равновероятных.
Что такое вероятность? Данный подход называется еще вероятностным.
Равновероятные (равновозможные) и разновероятностные события
Информацию, которую получает человек, можно считать мерой уменьшения неопределенности знаний. Неопределенность знаний о некотором событии – это количество возможных результатов события: если из двух возможных событий происходит одно, то неопределенность знаний уменьшается в два раза (было два варианта, остался один). И чем больше начальное число возможных равновероятных событий, тем в большее количество раз уменьшается неопределенность наших знаний, и тем большее количество информации будет содержать сообщение о результатах опыта.
Такое количество информации, которое находится в сообщении о том, что произошло в сообщении о том, что произошло одно событие из двух равновероятных, принято за единицу измерения информации и равно 1 биту.
Итак, с помощью битов информация кодируется. С точки зрения кодирования с помощью 1 бита можно закодировать два сообщения, события или два варианта некоторой информации. С точки зрения вероятности 1 бит – это такое количество информации, которое позволяет выбрать одно событие из двух равновероятных.
1 бит – это количество информации, уменьшающее неопределенность знаний в два раза – еще одно определение 1 бита.
Пусть потенциально может осуществиться некоторое множество событий (N), каждое из которых может произойти с вероятностью (рi), т.е. существует неопределённость. Предположим, что одно из событий произошло, неопределенность уменьшилась, вернее, наступила полная определённость.
Таким образом, количество информации (I), содержащейся в выбранном сообщении является мерой уменьшения неопределенности.
Для определения количества информации используется формула Хартли и Шеннона.
Американский инженер Р. Хартли в 1928 г. процесс получения информации рассматривал как выбор одного сообщения из конечного наперёд заданного множества из N равновероятных сообщений, а количество информации I, содержащееся в выбранном сообщении, определял как двоичный логарифм N.