- •Д. В. Ломакин прикладная теория информации
- •Предисловие
- •Модели, используемые в статистической теории информации
- •Установление количественной меры информации комбинаторное определение количества информации
- •Определение количества информации по к. Шеннону
- •Прологарифмировав последнее равенство, получим
- •Свойства энтропии Энтропия
- •При равномерном распределении энтропия
- •Ценность информации
- •Собственная информация и энтропия
- •Взаимная информация
- •Условную энтропию можно представить в виде
- •3. Дискретные источники сообщений и их описание эргодические источники
- •Производительность дискретного источника сообщений
- •Марковские источники сообщений
- •4. Кодирование сообщений при передаче по каналу без помех возможность оптимального (эффективного) кодирования
- •Префиксные коды
- •Неравенство крафта
- •Предельные возможности оптимального кодирования
- •Пропускная способность дискретного канала связи
- •Вычисление пропускной способности симметричных каналов
- •Сумма не зависит от номера столбцаj и в общем
Прологарифмировав последнее равенство, получим
logmP(Bk)=nplogmp+nqlogmq+
где величина H(x)=-plogmp-qlogmq
является характеристикой источника сообщений и называется э н т р о п и е й .
Покажем, что в случае типичных последовательностей остаточным членом О (п) по сравнению с величиной H(X)можно пpенебречь.
Поскольку для типичных последовательностей справедли-во неравенство ,то
Следовательно,
.
Таким образом, при достаточно большом п справедливо приближенное равенство
.
Отсюда вероятность появления отдельной типичной последовательности .
Поскольку правая часть равенства не зависит от номера типичной последовательности k, то все типичные последовательности примерно равновероятны. Вероятность появления типичной последовательности
где суммирование ведется по всему множеству типичных
последовательностей. Отсюда.
Q=m nH(X) ,
причем единица измерения энтропии Н (X) совпадает с основанием степени т. Поскольку количество информации, нужное для определения числа (состояния регистра), равно
logQ, энтропия равна количеству информации,
которое необходимо для определения состояния одного разряда.
Аналогично определяется количество типичных последовательностей, вырабатываемых источником с алфавитом размера тX , только в этом случае энтропия
.
Свойства энтропии Энтропия
,
поскольку pi удовлетворяет неравенству . Энтропия H(Х)=0,когда система находится в одном из состояний с вероятностью, равной единице, и во всех остальных—с вероятностью, равной нулю. При этом имеется в виду, что
.
При равномерном распределении энтропия
(X)=log mx
Докажем, что это максимальное значение энтропии. Исполь-
зуя равенство , можно выполнить следующие тождественные преобразования :
для оценки выражения воспользуемся неравенством .
Заменяя , получим
H 1
0,8
0,6 рис.1 Энтропия системы
0,4 с двумя состояниями :
p - вероятность одно-
0,2 го из состояний
0 0,2 0,4 0,6 0,8 1 P
,
где log e- модуль перехода . Отсюда
.
Пусть множество Х состоит из двух элементов, которые обозначим через единицу и ноль, причем единица позволяет-
ся с вероятностью, равной р, а ноль — с вероятностью, равной q=1—р. Тогда
.
Указанная зависимость изображена на рис. 1. Максимум достигается при p=q==0,5.
Ценность информации
Все определения ценности информации связаны с понятием цели. Ценной считается та информация, которая способствует достижению поставленной цели.
Один из способов измерения ценности информации, сформулированный в рамках статистической теории информации, был предложен А. А. Харкевичем [3]. Ценность информации может быть выражена через приращение вероятности достижения цели. Если значение априорной вероятности достижения цели обозначить через pi, а апостериорной — через р2, то ценность полученной информации можно определить как
.
В системах передачи информации цель сводится к правильной передаче сообщений независимо от их конкретного содержания и формулируется относительно каждого символа множества X. Пусть целью является принятие решения в пользу xi. Тогда относительно этой цели ценность сведений,
содержащихся в принятом у1 равна , где
p(xi) — априорная вероятность передачи xi, p(xi|yj) — вероятность того, что было передано xi после принятия уj. При такой формулировке цели ценность информации совпадает с обычным количеством информации, которое определено выше.
Таким образом, количество информации, которое уj, несет об xi, равно
Умножая числитель и знаменатель под логарифмом на p(yj) и учитывая равенства
,
получим
(3)
Отсюда следует, что уj несет об xi такое же количество информации, какое xi несет об уj (свойство симметрии). Поэтому I (xi,уj) называется взаимным количеством информации между i-м символом множества Х и j-м символом множества Y. Взаимное количество информации I(xi,уj) может быть положительным (p(xi|yj)>p(xi)), отрицательным (p(xi|yj)<p(xi)) и равным нулю (p(xi|yj)=p(xi)). Отрицательная информация называется д е з и н ф о р м а ц и е й.