Добавил:
Upload Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:
измерение информации.doc
Скачиваний:
25
Добавлен:
25.12.2018
Размер:
543.23 Кб
Скачать

1. Информация

    1. Количество информации

Количеством информации называют ее числовую характеристику, отражающую ту степень неопределенности, которая исчезает после получения информации. Для оценки и измерения количества информации в сообщении применяются различные подходы, среди которых следует выделить статистический и алфавитный.

Статистический подход. Для количественной оценки неопределенности или энтропии Н Хартли Р. предложил формулу, содержащую логарифм от числа равновероятных возможностей N

H = log2 N, (1)

которую можно записать в следующем виде:

2H = N, (2)

где H – количество информации.

Минимальной единицей количества информации, именуемой битом, будет выбор из двух возможностей.

При не равновероятной возможности выбора количество информации hi, зависящей от индивидуальной вероятности Pi i – го выбора, вычисляется по формуле К. Шеннона

, (3)

которую можно преобразовать к виду

. (4)

Удобнее в качестве меры количества информации пользоваться не значнем hi, а средним значением количества информации

. (5)

Алфавитный подход позволяет определить количество текстовой информации. Количество информации, которое несёт каждый символ вычисляется по формуле

i = log 2 N, (6)

где N – мощность алфавита, равная количеству символов в нём.

Текст, содержащий K символов, имеет объём информации, равный

I = K · i. (7)

Максимальное количество слов L из m букв, которое можно составить с помощью алфавита мощностью N, определяется как

L = N m. (8)

Примеры решения задач с равновероятными возможностями

П 1.1. Пусть имеется колода карт, содержащая 32 различные карты. При выборе одной карты имеется 32 возможности.

Решение: Число возможностей N = 32 при подстановке в формулу (1) дает количество информации H = 5 (2H = 25).

П 1.2. При бросании монеты выбор одного результата (например, выпадения орла) несет один бит информации, поскольку количество возможных равновероятных результатов N = 2 (орел или решка). Действительно, подставляя N = 2 в формулу (1), получим H = 1 бит.

П 1.3. Какой объем информации содержит сообщение, уменьшающее неопределенность в 4 раза?

Решение: так как неопределенность знаний уменьшается в 4 раза, следовательно, она была равна 4, т.е. существовало 4 равновероятных события. Сообщение о том, что произошло одно из них, несет 2 бита информации (4 = 22).

Ответ: 2 бита.

П 1.4. В коробке лежат 16 кубиков. Все кубики разного цвета. Сколько информации несет сообщение о том, что из коробки достали красный кубик?

Решение: из 16 равновероятных событий нужно выбрать одно. Поэтому N = 16, следовательно, H = 4, (16 = 24).

Пояснение: события равновероятны, т.к. всех цветов в коробке присутствует по одному.

Ответ: 4 бита.

П 1.5. Сообщение о том, что ваш друг живет на 10 этаже, несет 4 бита информации. Сколько этажей в этом доме?

Решение: N = 24 = 16 этажей.

Пояснение: события равновероятны, т.к. номера этажей не повторяются.

Ответ: 16 этажей.

Примеры решения задач с не равновероятными событиями

П 1.6. В корзине лежат 8 черных шаров и 24 белых. Сколько информации несет сообщение о том, что достали черный шар?

Дано: Nч = 8; Nб = 24. Найти: Hч = ?

Решение:

1) N = 8 + 24 = 32 – шара всего;

2) Pч = 8/32 = ¼ - вероятность доставания черного шара;

3) H = log2 (1/ ¼) = 2 бита.

Ответ: 2 бита.

П 1.7. В коробке лежат 64 цветных карандаша. Сообщение о том, что достали белый карандаш, несет 4 бита информации. Сколько белых карандашей было в коробке?

Дано: Nч = 64; Hб = 4. Найти: Кб = ?

Решение:

1) Hб = log2(1/Pб); 4 = log2(1/Pб); 1/Pб = 16; Pб = 1/16 – вероятность доставания белого карандаша;

2) Pб = Кб/N; 1/16 = Кб/64; Кб = 64/16 = 4 белых карандаша.

Ответ: 4 белых карандаша.

П 1.8. В корзине лежат белые и черные шары. Среди них 18 черных шаров. Сообщение о том, что из корзины достали белый шар, несет 2 бита информации. Сколько всего шаров в корзине?

Дано: Кч = 16, N = 2 бита. Найти: N - ?

Решение:

1) 1/Pб = 21, 1/Pб = 22 = 4, Pб = ¼ - вероятность доставания белого шара;

2) Pб = Кб/N = Кб/(Кб + Кч), ¼ = Кб/(Кб + 18), Кб + 18 = 4 * Кб, 18 = 3 * Кб, Кб = 6 – белых шаров;

3) N = Кб + Кч = 18 + 6 = 24 шара было в корзине.

Ответ: 24 шара лежало в корзине.

Примеры решения задач на измерение алфавитного объёма

П 1.9. Найти объем текста HT, записанного на языке, алфавит которого содержит N = 128 символов и K = 2000 символов в сообщении.

Решение:

  1. H = log2N = log2128 = 7 бит – объем одного символа.

  2. HT = H × K = 7 × 2000 = 14 000 бит – объем сообщения.

Ответ: 14 000 бит.

П 1.10. В алфавите некоторого языка всего N = 2 буквы, каждое слово в языке состоит точно из m = 7 букв. Какой максимальный запас слов в языке?

а) 128; б) 256; в) 64; г) 1024.

Решение:

Если мощность алфавита N, а максимальное количество букв в слове, записанном с помощью этого алфавита, – m, то максимально возможное количество слов определяется по формуле L = Nm, откуда N = 27, следовательно, N = 128.