Добавил:
Upload Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:
110515_INF_1_Uchebnoe_posobie_v3.doc
Скачиваний:
14
Добавлен:
08.11.2018
Размер:
934.4 Кб
Скачать

Вопросы для повторения

  1. Перечислите этапы развития средств хранения информации.

  2. Перечислите этапы развития средств передачи информации.

  3. Перечислите этапы развития средств обработки информации.

  4. Как влияет развитие информационных технологий на уровень развития общества?

  5. Какие негативные явления сопровождает процесс информатизации общества?

4. Меры и единицы измерения информации

Сообщения как совокупность знаков с точки зрения семиотики изучается на трех уровнях:

синтаксический уровень, где рассматриваются отношения между знаками;

семантический уровень, где анализируется отношения между знаками и обозначаемыми предметами;

прагматический уровень, где рассматриваются отношения между знаками и получателем сообщений.

4.1. Мера информации синтаксического уровня

Количественная мера оценки информации этого уровня не связана со смыслом информации, ее содержанием. Для измерения информации на синтаксическом уровне используют характеристики объема и количества информации.

Рассмотрим понятие объема информации. Пусть задан алфавит, включающий множество символов, каждый из которых занимает в памяти объем равный u и пусть информация содержится сообщении, состоящим из N символов. Тогда объем информации сообщения можно определить, используя выражение:

V=N×u (единица объема).

Под количеством информации понимают меру снятия неопределенности ситуации при получении сообщения.

Хартли в 1928 году предложил степень неопределенности ситуации с m исходами характеризовать числом: H(x) = log m. Если в результате получения сообщения y количество исходов ситуации уменьшается до n, то количество информации в полученном сообщении определяется выражением:

I(y) = H(x) H(y), (4.1)

где H(x) = log m неопределенность ситуации x до получения сообщения y, H(y) = log n неопределенность ситуации x, оставшаяся после получения сообщения y.

Для определения количества информации, содержащегося в сообщении, необходимо выполнить следующие действия:

  1. Найти n количество исходов ситуации до получения сообщения;

  2. Найти m количество исходов ситуации после получения сообщения;

  3. Воспользоваться выражением (4.1) и найти количество информации, содержащиеся в сообщении.

За единицу количества информации принимается один бит, который соответствует сообщению о ситуации, имеющей два исхода до получения сообщения, а при получении сообщения  единственный исход:

I(y) =log 2 log 1 =1 бит.

Применяемые единицы измерения количества информации приведены в таблице 4.3.

Таблица 4.3.

Название единицы

Обозначение единицы

Соотношения между единицами измерения количества информации

1

байт

байт

1 байт = 8 бит

2

Килобайт

Кбайт

1 Кбайт = 1024 байт = 210 байт

3

Мегабайт

Мбайт

1 Мбайт = 1024 Кбайт = 220 байт

4

Гигабайт

Гбайт

1 Гбайт = 1024 Мбайт = 230 байт

5

Терабайт

Тбайт

1 Тбайт = 1024 Гбайт = 240 байт

Рассмотрим пример определения количества информации, которое содержится в сообщении.

В княжестве имеются автомобили только черного, серого и белого цвета. Количество информации сообщения «В аварию попал автомобиль не черного цвета» равен 8log25 бит. Количество информации сообщения «В аварию попал серый автомобиль» равно 8 бит. Какое количество информации в сообщении о том, что в аварию попал автомобиль белого цвета.

Обозначим через x, y и z количество автомобилей черного, серого и белого цвета. Тогда в княжестве имеется x + y + z автомобилей.

Степень неопределенности при попадании одного автомобиля в аварию равна:

H1 = log2(x + y + z)

Степень неопределенности при попадании в аварию автомобиля не черного цвета (серого и белого автомобиля) равна:

H2 = log2(y + z).

Количество информации, содержащиеся в сообщении «В аварию попал автомобиль не черного цвета», равно:

I = H1 H2 = log2(x + y + z) log2(y + z) = 8 log25

Степень неопределенности при попадании в аварию серого автомобиля равна:

H3 = log2y.

Количество информации, содержащиеся в сообщении «В аварию попал серый автомобиль», равно:

I = H1 H3 = log2(x + y + z) log2y = 8 (4.2).

Предположим, что x + y + z = 8, а y+ z = 5 (4.3). Тогда из (4.2) находим y:

log2(x + y + z) log2y = 8 log2y = 8;

log2y = 0;

y = 1.

Тогда из (3) можно найти z:

y+ z = 5;

1 + z = 5;

z= 4.

Степень неопределенности при попадании в аварию белого автомобиля равна:

H4 = log2z = log24 = 2.

Количество информации, содержащиеся в сообщении «В аварию попал белый автомобиль», равно:

I = H1 H4 = log2(x + y + z) log2z = 8 2 =6.

Соседние файлы в предмете [НЕСОРТИРОВАННОЕ]