Добавил:
Upload Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:
Крыжановский ПДС.doc
Скачиваний:
124
Добавлен:
10.06.2015
Размер:
5.32 Mб
Скачать

2.5.3. Двухпараметрическая модель(модель вкас, модель Пуртова)

Экспериментальные исследования показали, что зависимость приn от 1до 500 хорошо аппроксимируется прямыми линиями при логарифмическом масштабе по обеим осям координат.

Рассмотрим подобную зависимость для коммутируемого канала ТЧ кабельной линии при вероятности ошибки - (рис 2.15) –прямая 3.

Рис.2.15 Зависимость

На рис.2.3 показаны два предельных варианта. Первый вариант - равномерное распределение независимых ошибок (прямая 1 ), а второй вариант - группирование ошибок в одну пачку (прямая 2).

Прямая 1 отражает зависимость (См.формулу (2.39).

Действительно: (2.42)

Это есть уравнение прямой пересекающей ось ординат под углом в точкеЕще раз напоминаем, что данная прямая описывает симметричный ДК с равномерно распределенными независимыми ошибками.

Прямая 2 - описывает канал, в котором ошибки появляются плотной группой. В этом случае (см. табл. и рис.2.15) вероятность появления искажения КК не зависит от длины КК-“n”.

Поэтому: (2.43)

Это есть уравнение прямой, параллельной оси абсцисс и пересекающейся с осью ординат в точке

Прямая 3- экспериментальная зависимость. Она находится между указанными границами и имеет угловой наклон . Уравнение этой прямой имеет вид

Обозначим и проведем операцию, обратную логарифмированию, получим:

(2.44)

Величина называется показателем группирования ошибок.

Если =0- то ошибки независимы и равномерно распределены, т.е. приходим к формуле (1.10) (прямая 1).

Если =1 , то это другой предельный случай –все ошибки сгруппированы в одну пачку (прямая 2).

В реальных каналах лежит в пределах

Например, для коммутируемых ТЧ (телефонных) каналов

для радиорелейных каналов

Для определения вероятности появления L и более ошибок в КК длиной « n » можно воспользоваться формулой:

(2.45)

Вероятность появления точно L ошибок определяется выражением :

(2.46)

Модель Пуртова достаточно хорошо отражает основные свойства ДКС. Однако коэффициент может быть определен только экспериментально.

3.Методы сопряжения источников дискретных сообщений с дискретными каналами

3.1 Основы эффективного кодирования

В технике передачи дискретных сообщений приходится решать задачу сопряжения (согласования) источников дискретных сообщений с каналом. Решение этой задачи связано с поиском путей передачи информации со скоростью, возможно более близкой к предельной.

Для большинства источников дискретных сообщений, характеризующихся информационной избыточностью, максимальная скорость передачи может быть достигнута в результате устранения избыточности в передаваемом сообщении. Процедуры, направленные на устранение избыточности источника дискретных сообщений, передаваемых по каналу без помех, называются эффективным кодированием.

Пусть имеется сообщение, записанное с помощью букв некоторого первичного алфавита содержащего К букв.

Требуется закодировать это сообщение, т.е. указать правило сопоставления каждой букве первичного алфавита последовательности «0» и «1» , образующих вторичный алфавит.

При передаче дискретных сообщений по каналам связи буквы алфавита обычно отображаются кодовыми комбинациями постоянной длины (равномерное кодирование). Длина кодовой комбинации n выбирается из условия

Применение эффективного кодирования позволяет уменьшить среднее число l двоичных символов на букву сообщения:

(3.1)

где -длина кодовой комбинации, отображающейi-ю букву;

-вероятность появления i-ой буквы.

Уменьшение средней длины кодовой комбинации, отображающей букву сообщения, позволяет увечить скорость передачи.

Эффективное кодирование базируется на теореме Шеннона для каналов без шума.

Согласно этой теореме ( основной теореме кодирования), сообщения, составленные из букв некоторого алфавита, можно закодировать так, что среднее число l двоичных символов, приходящихся на букву, будет сколь угодно близко к энтропии источников этих сообщений Н(А), но не менее этой величины , т.е.

(3.2)

Под энтропией дискретного источника Н(А) понимается среднее количество информации, приходящееся на одну букву сообщения:

(3.3)

Для по­строе­ния эф­фек­тив­ных ко­дов наи­боль­шее рас­про­стра­не­ние на­шли ме­то­ди­ки Шен­но­на-Фа­но и Хаф­фме­на.