- •3. Информационные характеристики каналов
- •3.1. Модели дискретных каналов
- •3.2. Характеристики непрерывных каналов
- •3.3. Характеристики дискретных каналов
- •3.4. Пропускная способность непрерывных каналов
- •3.5. Пропускная способность дискретных каналов
- •3.6. Теоремы кодирования для дискретного канала
- •3.7. Теорема кодирования для непрерывного канала
3. Информационные характеристики каналов
3.1. Модели дискретных каналов
В постоянном симметричном канале без памяти (ПСКБП) алфавиты кодовых символов на входе и выходе имеют одинаковый объем . Каждый переданный символ можно принять ошибочно (правильно) с вероятностью ( ). Из-за ошибки вместо символа , соответствующего переданному , можно с равной вероятностью принять любой другой , . Вероятность приема при передаче равна
(3.1)
Термин без памяти означает, что вероятность ошибочного приема символа (вероятность ошибки) не зависит от того, какие символы передавались до этого, и как они были приняты. Тогда вероятность любого мерного вектора ошибки с весом (числом ненулевых символов) равна Вероятность появления ошибок в произвольных позициях последовательности длины , определяется формулой Бернулли , где - число различных сочетаний ошибок в блоке длиной , . Эта модель - биномиальный канал, применима к каналу без замираний, если аддитивный шум белый .
ПСКБП со стиранием отличен от ПСКБП тем, что алфавит на выходе канала содержит дополнительный -символ, часто обозначаемый знаком ?. Этот символ появляется, если 1-ая решающая схема приемника (демодулятор) не опознает символ надежно. Вероятность отказа от решения (стирания символа) постоянна и не зависит от передаваемого символа. За счет стирания можно снизить вероятность ошибки, иногда – почти до .
В несимметричном канале без памяти ошибки возникают независимо, но их вероятности зависят от передаваемого символа. В двоичном несимметричном канале вероятность приема символа при передаче символа не равна вероятности приема символа при передаче символа . В ПСКБП условная вероятность ошибочного приема -го символа при условии, что -ый символ принят ошибочно, равна безусловной вероятности ошибки. В канале с памятью ая вероятность может быть больше или меньше ой. В реальных каналах память обусловлена разными причинами . Например, - замираниями, атмосферными и взаимными помехами разных каналов или особенностями метода модуляции и демодуляции. В кабельных линиях связи причиной памяти могут стать коммутационные помехи из-за переключений отдельных элементов канала, выводящих канал на короткое время из строя. Модели каналов с памятью можно строить, например, на основе аппарата цепей Маркова .
Память может проявляться в пакетировании ошибок . Оно группирует ошибки на отдельных словах: число искаженных слов уменьшается, а кратность ошибок в словах увеличивается. Иногда в канале с памятью вероятность вектора ошибки не зависит от передаваемой последовательности. Во многих каналах из двух векторов ошибки с одинаковым весом более вероятен тот, при котором расположены близко друг к другу. Тогда есть тенденция к группированию ошибок.
3.2. Характеристики непрерывных каналов
Из-за ограниченности разрешающей способности реальных приемников нельзя знать точно переданное сообщение. На приемной стороне достаточно восстановить его с точностью, характеризуемой параметром . Количество принятой так информации конечно и зависит от выбора . Часто применяют средний квадрат разности между принятым сообщением и переданным : . Сообщения и эквивалентны друг другу с точностью , если . Средняя взаимная информация зависит от статистических свойств , определяющих дифференциальную энтропию , и от критерия эквивалентности. От этого же критерия зависит условная плотность вероятности , а, значит, - и . Эпсилон-энтропией называется величина
(3.2)
где минимум и максимум взяты по всем , для которых . – минимальное количество информации сообщения о сообщении , при котором они еще эквивалентны. - количество существенной информации в одном отсчете непрерывного сообщения, которое надо передать, чтобы воспроизвести сообщение с заданной точностью.
Так как , то условная дифференциальная энтропия определяется дифференциальной энтропией отсчета шума воспроизведения . Поэтому . Мощность этого шума должна быть . Согласно (2.18), . Из (3.2) следует . Для гауссовского источника эпсилон-энтропия максимальна: , где - минимальное отношение сигнал/шум, когда и еще эквивалентны.
Эпсилон-производительность источника непрерывных сообщений (скорость создания информации) - количество информации, которое необходимо передать от источника по каналу в единицу времени, чтобы в приемнике восстановить сообщение при заданном критерии эквивалентности. При независимых отсчетах сообщения источника, выдаваемых со средней скоростью ,
(3.3)
Пример 3.2.1. Пусть случайная величина , где и - независимые гауссовские величины с дисперсией и , соответственно. Рассмотрим и как амплитуды импульсов на входе и выходе канала, соответственно, а - как аддитивный шум, добавляющийся к импульсам при передаче по каналу. Согласно центральной предельной теореме теории вероятностей (ЦПТ) , величина - тоже гауссовская с дисперсией . С учетом (2.18) ее дифференциальная энтропия равна . Из (2.19) следует . Но и , так что условная дифференциальная энтропия гауссовской величины зависит лишь от дисперсии шума : . Выражения для и подставим в (2.20). Найдем среднюю взаимную информацию для изучаемого канала: . При введенных ограничениях - максимально возможное количество информации об отсчете входного в канал сообщения в одном отсчете выходного сообщения.