- •2 Информационные характеристики цифровых сигналов
- •2.1 Собственная информация. Взаимная информация
- •Решение типовых примеров
- •2.2 Средняя собственная информация (энтропия)
- •Решение типовых примеров
- •2.3 Средняя взаимная информация
- •Решение типовых примеров
- •Информационные характеристики случайных последовательностей
- •Решение типовых примеров
2 Информационные характеристики цифровых сигналов
2.1 Собственная информация. Взаимная информация
Описание дискретного канала. Цифровымым называется такой канал, сигналы на входе и выходе которого являются последовательностями дискретных случайных величин (символов).
Для полного описания канала на интервале времени, соответствующем передаче одного символа, необходимо задать ансамбли символов на входе и выходе и условные вероятности переходов . В дальнейшем будем обозначать:
- ансамбль сообщений на входе,
- ансамбль сигналов на выходе.
Собственная информация. Поскольку появление символа сообщения на входе дискретного канала есть событие случайное, то имеет место неопределенность исхода. В результате опыта неопределенность уменьшается или даже исчезает полностью, и при этом получается некоторое количество информации.
Тогда собственная информация символа xj (количество информации, доставляемое самим символом xj или любым другим, однозначно с ним связанным) определяется как
, |
(2.1.1) |
т.е. информация в каком-либо событии измеряется логарифмом величины, обратной вероятности его появления.
Выбор основания логарифма определяет единицу количества информации. Если , то единица информации называется двоичной (бит), при – натуральной (нат), а при – десятичной. Двоичная единица количества информации, например, есть собственная информация символа, обладающего двумя равновозможными состояниями. Переход от одной системы логарифмов к другой равносилен простому изменению единицы измерения информации. Этот переход осуществляется по формуле
.
Отсюда ,
.
Условная собственная информация. В общем случае сообщения и сигналы на входе и выходе дискретного канала зависимы. Пусть - условная вероятность того, что реализовалось состояние ансамбля при условии, что ансамбль принял состояние . Тогда, по аналогии с собственной, информация, содержащаяся в символе сообщения при условии, что сигнал принял значение , определяется как
|
(2.1.2) |
и называется условной собственной информацией.
Взаимная информация. Обратимся снова к ансамблям и . Пусть ансамбли зависимы. В результате опыта (приема символа сигнала ) апостериорная вероятность появления символа изменяется по сравнению с априорной . Тогда количество информации относительно символа сообщения , доставляемое символом сигнала , можно определить как логарифм отношения апостериорной вероятности к априорной
. |
(2.1.3) |
Это и есть взаимная информация.
Основные свойства взаимной информации.
1) Взаимная информация может быть отрицательной, положительной и равной нулю в зависимости от соотношения между априорной и апостериорной вероятностями
|
(2.1.4) |
2) Взаимная информация не превышает собственную
, . |
(2.1.5) |
При данной вероятности взаимная информация достигает максимума, когда принятый символ однозначно определяет переданный символ . При этом
и максимальное значение взаимной информации
,
равно собственной информации, определяемой только априорной вероятностью символа .
3) Свойство симметрии
, |
(2.1.6) |
т.е. информация, содержащаяся в относительно , равна информации, содержащейся в относительно . В силу этого свойства информацию называют взаимной информацией между и .
4) Свойство аддитивности количества информации
|
(2.1.7) |
Если пара независима от пары , то информация, содержащаяся в пape относительно пары , равна сумме информации, содержащейся в относительно , и информации, содержащейся в относительно .