Добавил:
Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:
Ломакин Д.В. Приклодная теория информации.doc
Скачиваний:
163
Добавлен:
02.05.2014
Размер:
691.71 Кб
Скачать

Прологарифмировав последнее равенство, получим

logmP(Bk)=nplogmp+nqlogmq+

где величина H(x)=-plogmp-qlogmq

является характеристикой источника сообщений и называется э н т р о п и е й .

Покажем, что в случае типичных последовательностей ос­таточным членом О (п) по сравнению с величиной H(X)мож­но пpенебречь.

Поскольку для типичных последовательностей справедли-во неравенство ,то

Следовательно,

.

Таким образом, при достаточно большом п справедливо приближенное равенство

.

Отсюда вероятность появления отдельной типичной после­довательности .

Поскольку правая часть равенства не зависит от номера ти­пичной последовательности k, то все типичные последователь­ности примерно равновероятны. Вероятность появления ти­пичной последовательности

где суммирование ведется по всему множеству типичных

последовательностей. Отсюда.

Q=m nH(X) ,

причем единица измерения энтропии Н (X) совпадает с осно­ванием степени т. Поскольку количество информации, нуж­ное для определения числа (состояния регистра), равно

logQ, энтропия равна количеству информации,

которое необходимо для определения состояния одного раз­ряда.

Аналогично определяется количество типичных последо­вательностей, вырабатываемых источником с алфавитом раз­мера тX , только в этом случае энтропия

.

Свойства энтропии Энтропия

,

поскольку pi удовлетворяет неравенству . Энтропия H(Х)=0,когда система находится в одном из состояний с вероятностью, равной единице, и во всех остальных—с ве­роятностью, равной нулю. При этом имеется в виду, что

.

При равномерном распределении энтропия

(X)=log mx

Докажем, что это максимальное значение энтропии. Исполь-

зуя равенство , можно выполнить следующие тождественные преобразования :

для оценки выражения воспользуемся неравенством .

Заменяя , получим

H 1

0,8

0,6 рис.1 Энтропия системы

0,4 с двумя состояниями :

p - вероятность одно-

0,2 го из состояний

0 0,2 0,4 0,6 0,8 1 P

,

где log e- модуль перехода . Отсюда

.

Пусть множество Х состоит из двух элементов, которые обозначим через единицу и ноль, причем единица позволяет-

ся с вероятностью, равной р, а ноль — с вероятностью, равной q=1р. Тогда

.

Указанная зависимость изображена на рис. 1. Максимум достигается при p=q==0,5.

Ценность информации

Все определения ценности информации связаны с поня­тием цели. Ценной считается та информация, которая способ­ствует достижению поставленной цели.

Один из способов измерения ценности информации, сфор­мулированный в рамках статистической теории информации, был предложен А. А. Харкевичем [3]. Ценность информации может быть выражена через приращение вероятности дости­жения цели. Если значение априорной вероятности достиже­ния цели обозначить через pi, а апостериорной — через р2, то ценность полученной информации можно определить как

.

В системах передачи информации цель сводится к пра­вильной передаче сообщений независимо от их конкретного содержания и формулируется относительно каждого символа множества X. Пусть целью является принятие решения в пользу xi. Тогда относительно этой цели ценность сведений,

содержащихся в принятом у1 равна , где

p(xi) априорная вероятность передачи xi, p(xi|yj) ве­роятность того, что было передано xi после принятия уj. При такой формулировке цели ценность информации совпадает с обычным количеством информации, которое определено выше.

Таким образом, количество информации, которое уj, несет об xi, равно

Умножая числитель и знаменатель под логарифмом на p(yj) и учитывая равенства

,

получим

(3)

Отсюда следует, что уj несет об xi такое же количество ин­формации, какое xi несет об уj (свойство симметрии). Поэтому I (xi,уj) называется взаимным количеством информации между i-м символом множества Х и j-м символом множества Y. Взаимное количество информации I(xi,уj) может быть положительным (p(xi|yj)>p(xi)), от­рицательным (p(xi|yj)<p(xi)) и равным нулю (p(xi|yj)=p(xi)). Отрицательная информация называется д е з и н ф о р м а ц и е й.