Добавил:
Upload Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:

TES_kursovoe_proektirovanie (2)

.pdf
Скачиваний:
14
Добавлен:
01.06.2015
Размер:
329.94 Кб
Скачать

11

Рис.2.1. Структурная схема системы связи.

2.2.Анализ и кодирование источника

Источник сообщений называют источником без памяти, если вероятность появления на его выходе очередного символа никак не зависит от предыстории. Энтропия дискретного источника без памяти с алфавитом A={a1, a2, … aM} размерности M и вероятностями символов P(ai) равна

 

M

 

 

 

H ( A)

P(ai ) log2 P(ai ) бит/символ.

(2.1)

 

i 1

 

 

 

Избыточность такого источника

 

 

 

 

 

log2 M

H ( A)

.

(2.2)

 

 

log

2 M

 

 

 

 

Информационная производительность источника

 

 

H '(A) H (A) / Tи бит/с,

(2.3)

где Ти - длительность одного элемента сообщения на выходе источника. Статистическое кодирование имеет своей целью устранение

избыточности источника и снижение за счет этого требований к скорости передачи информации по каналу связи. Применение статистического кодирования оправдано для источников с существенной избыточностью (η > 0.1). Следует заметить, что статистическое кодирование – прямая противоположность помехоустойчивому кодированию, подразумевающему внесение избыточности в сообщение за счет введения дополнительных элементов в кодовые комбинации.

В настоящее время наиболее эффективным методом статистического кодирования источников без памяти считается код Хаффмана [13, с.29-34]. Данный код относится к префиксным кодам с переменной длиной кодового слова и позволяет уменьшить среднее количество кодовых символов, передаваемых по каналу связи за счет сопоставления чаще встречающимся символам источника более коротких кодовых комбинаций канала. В префиксном коде никакое завершенное кодовое слово не может быть началом другого кодового слова, что позволяет обеспечить возможность разделения символов и однозначного декодирования без передачи каких-либо разделителей.

Алгоритм построения кода кодa Хаффмана включает 3 этапа:

1.Упорядочение. Символы алфавита источника располагаются в порядке убывания их вероятностей.

2.Редукция. Объединяются 2 знака с наименьшими вероятностями в один составной знак. Символы переупорядочиваются для соблюдения правила убывания вероятностей. Данный этап повторяется циклически до полного объединения всех символов в один.

12

3. Кодирование. Начинается с последнего объединения. Приписать первой компоненте составного знака символ «0», а второй – символ «1». Продолжать процесс, пока все простые знаки будут закодированы.

В случае, когда несколько знаков имеют равные вероятности, объединяются те 2 из них, которые до этого имели наименьшее число объединений.

Пример построения кода Хаффмана. Пусть объем алфавита источника равен M=6, а символы источника и их вероятности приведены в первых двух строках таблицы 2.1.

 

 

 

 

 

 

Таблица 2.1

ai

a1

a2

a3

a4

a5

 

a6

P(ai)

0.05

0.15

0.05

0.4

0.2

 

0.15

i(ai), бит

4,32

2,74

4,32

1,32

2,32

 

2,74

Код

1110

101

1111

0

100

 

110

ni

4

3

4

1

3

 

3

Используя формулу i(ai )

log2 P(ai ) найдем количество информации

в каждом символе источника. Результаты расчета внесены в третью строку таблицы 2.1. В соответствии с формулами (2.1) – (2.2) энтропия источника и его избыточность соответственно равны: H(A) ≈ 2.25 бит/символ, η ≈ 0.13. Избыточность велика, статистическое кодирование целесообразно.

Процесс построения кода Хаффмана для рассматриваемого примера иллюстрируется рисунком 2.2. На шаге 0 символы расположены в порядке убывания вероятностей. На шаге 1 наименее вероятные символы a1 и a3

объединяются

в

составной

символ

a1+a3

c

вероятностью

P(a1+a3) = P(a1) + P(a3) = 0.1 . Теперь

в дальнейших

объединениях вместо

символов a1 и a3 участвует составной символ a1+a3

со своей вероятностью. На

шаге 2 наименьшие вероятности имеют символы a1+a3

и a6, которые и

объединяются в новый символ

a1+a3+a6,

имеющий вероятность

P(a1+a3+a6) = P(a1+a3) + P(a6) = 0.25. К

шагу 3

самыми

маловероятными

оказываются символы a2 и a5, они и объединяются на этом шаге в составной символ a2+a5. Дальнейшие объединения проходят аналогично вплоть до слияния всех символов в один, имеющий единичную вероятность.

13

 

Шаг 0

 

 

 

 

Шаг 1

 

 

 

Шаг 2

Шаг 3

 

Шаг 4

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

a4

0.4

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

a2+a5

0

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

a5

0.2

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

0

 

0.35

 

1

 

1.0

 

 

 

 

 

 

 

 

 

1

 

 

 

a2

0.15

 

 

 

 

 

 

 

 

 

 

a1+a3+a6+a2+a5

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

ѐ

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

0

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

a6

0.15

 

 

 

 

 

 

 

 

 

a1+a3+a6

1

 

0.6

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

0

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

a1

0.05

 

 

 

 

 

a1+a3

1

 

 

0.25

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

0

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

1

 

 

 

0.1

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

a3

0.05

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

Рис.2.2. Построение кода Хаффмана.

Далее приписываем ветвям верхним ветвям объединений символ «0», а нижним – «1». В результате путь от конечного узла объединений к каждому из исходных символов ai может быть описан как последовательность символов «0» или «1» проходимых на этом пути ветвей. Так, например, символу a6 будет соответствовать цепочка 110. В четвертой строке таблицы 2.1 приведены цепочки кодовых символов (кодовые группы) для всех символов алфавита источника, которые и составляют код.

 

 

14

Как и следовало

ожидать, кодовые группы имеют разную длину

ni (см. пятую строку таблицы 2.1). Средняя длина кодовой группы равна

 

M

 

n

P(ai )ni 2.3

 

i

1

Отношение H (A) / n

2.25 / 2.3 0.98 . Таким образом, отклонение

средней длины кодовой группы от энтропии составляет всего 2% и эффективность кодирования достаточно высока.

Повысить эффективность статистического кодирования при необходимости можно путем предварительного группирования символов источника в блоки по k символов и переходом к новому источнику с алфавитом объема Mk. Для этого нового источника можно рассчитать вероятности символов и построить код Хаффмана аналогично вышеприведенному.

Примеры построения кода Шеннона-Фано приведены в [5, с. 164–167;

8, с 184–193; 9, с.169–176].

Для источников с памятью характерна зависимость последующих символов от предыдущих. Таким образом проявляется некая «информационная инерционность» источника, повышающая предсказуемость очередного символа и, следовательно, снижающая энтропию. Среди источников с памятью особый интерес представляют Марковские источники

– источники, для которых прошлое несущественно, если настоящее известно. Математической моделью Марковского источника является цепь Маркова – известный из математики дискретный случайный процесс. Таким образом, память Марковского источника конечна, что позволяет относительно просто найти его энтропию и разработать методику статистического кодирования.

Глубина памяти Марковского источника r – это предельное расстояние между последовательными символами на его выходе, для которых имеет место взаимозависимость. Значение r=1 означает, что текущий символ зависит только от предыдущего и не зависит от предшествовавших ему.

Как и для источников без памяти, минимальная средняя длина кодовой комбинации, приходящаяся на один символ источника с памятью, ограничивается энтропией источника. Чтобы определить эту энтропию, источник разделяют на подисточники, каждый из которых соответствует некоторому возможному исходному состоянию источника перед очередным шагом изменения этого состояния. При этом глубина охвата подисточником предыдущих состояний источника должна соответствовать глубине его памяти [13, с.42-72].

При r=1 анализ упрощается и в качестве подисточников можно взять только варианты текущего состояния источника без предыстории. Для двоичного источника таких состояний всего 2 – «0» и «1», обозначим их соответственно S0 и S1.

15

 

 

 

Энтропия источника с памятью может

быть

найдена

путем

статистического усреднения энтропий подисточников:

 

 

H (A) P(S0 )H0 (A) P(S1)H1(A) ,

 

(2.4)

где P(S0) и P(S1) – безусловные вероятности срабатывания одного и другого подисточника, H0(A) и H1(A) – энтропии подисточников.

Энтропии подисточников равны

H0 ( A)

P(S0 | S0 ) log2 P(S0 | S0 )

P(S1 | S0 ) log2

P(S1

| S0 ),

 

 

 

 

(2.5)

H1( A)

P(S0 | S1) log2 P(S0 | S1)

P(S1 | S1) log2 P(S1 | S1).

Здесь P(Si|Sj) – условные вероятности перехода на очередном шаге из состояния Sj в состояние Si. Поскольку подисточник охватывает только один символ на выходе источника, то эти условные вероятности равны заданным переходным вероятностям P(Si|Sj) = P(ai|aj).

Входящие в (2.4) безусловные вероятности состояний для стационарной цепи Маркова могут быть найдены по формулам:

P(S0 )

 

P(S0

| S1)

 

 

,

P(S0

| S1)

P(S1

 

 

 

 

| S0 )

 

 

 

P(S1

| S0 )

(2.6)

P(S1)

 

 

 

.

P(S0

| S1)

 

 

 

P(S1 | S0 )

Таким образом, определены все величины, входящие в выражение (2.4)

и можно найти энтропию источника с памятью. Заметим, что энтропия источника с такими же безусловными вероятностями состояний, но без памяти, была бы равна

HБП (A)

P(S0 ) log2 P(S0 ) P(S1) log2 P(S1).

(2.7)

Память источника

может только снизить его энтропию,

поэтому

H(A) ≤ HБП(A) и по разнице этих величин это снижение можно оценить количественно.

Кодирование источника с памятью глубиной r осуществляется в несколько этапов.

1.Определяется начальная длина кодируемых цепочек символов с выхода источника l=(r+1).

2.Составляются все возможные цепочки символов длиной l, рассчитывается вероятность каждой цепочки.

3.Цепочки принимаются в качестве алфавита некоторого эквивалентного источника без памяти и кодируются методом Хаффмана или Шеннона-Фано.

4.Вычисляется средняя длина кодовой комбинации, делится на l и сравнивается с ранее вычисленной энтропией источника. Если расхождение велико, l увеличивается на единицу и этапы 2-4 повторяются.

Пример кодирования источника с памятью. Пусть задана матрица переходных вероятностей

 

16

 

 

P(a0 | a0 )

P(a1 | a0 )

0.8

0.2

P(a0 | a1)

P(a1 | a1)

0.3

0.7 .

Подставив значения условных вероятностей в (2.6) и (2.5), найдем безусловные вероятности P(S0) = 0.6, P(S1) = 0.4 и энтропии подисточников H0(A) = 0.722, H1(A) = 0.881. Энтропия источника с памятью в соответствии с (2.4) будет равна H(A) = 0.786. Энтропия эквивалентного источника без памяти определяется выражением (2.7) и равна HБП(A) = 0.971. Таким образом, относительное снижение энтропии за счет памяти источника равно

(HБП(A) − H(A))/ HБП(A) = 0.19.

Выбираем l = 2, тогда цепочки символов, их вероятности и полученный код Хаффмана будут соответствовать таблице 2.2.

 

 

 

Таблица 2.2

Цепочка

Вероятность

Код

Длина

 

00

P00=P(S0)P(S0| S0) = 0.48

0

1

 

01

P01=P(S0)P(S1| S0) = 0.12

110

3

 

10

P10=P(S1)P(S0| S1) = 0.12

111

3

 

11

P11=P(S1)P(S1| S1) = 0.28

10

2

 

Средняя длина кодовой комбинации nl

1.76 , а в расчете

на один

символ алфавита источника n nl / l 0.88 ,

что значительно

больше

энтропии H(A) = 0.786. Следовательно, необходимо увеличить l на единицу и повторить процедуру кодирования.

Для l = 3 цепочки символов и код Хаффмана приведены в таблице 2.3.

 

 

 

Таблица 2.3

Цепочка

Вероятность

Код

Длина

 

000

P000=P(S0)P(S0| S0)P(S0| S0) = 0.384

0

1

 

010

P010=P(S0)P(S1| S0) P(S0| S1) = 0.036

11110

5

 

100

P100=P(S1)P(S0| S1) P(S0| S0) = 0.096

110

3

 

110

P110=P(S1)P(S1| S1) P(S0| S1) = 0.084

1011

4

 

001

P001=P(S0)P(S0| S0)P(S1| S0) = 0.096

1010

4

 

011

P011=P(S0)P(S1| S0) P(S1| S1) = 0.084

1110

4

 

101

P101=P(S1)P(S0| S1) P(S1| S0) = 0.024

11111

5

 

111

P111=P(S1)P(S1| S1) P(S1| S1) = 0.196

100

3

 

Можно вычислить, что средняя длина кодовой комбинации в данном

случае составляет

nl

2.62 , что в расчете на один символ алфавита

источника дает n

nl / l

0.87 , Такой результат тоже не может быть признан

удовлетворительным, поэтому необходимо продолжать попытки кодирования для больших значений l.

2.3.Анализ приемника и расчет мощности сигнала на его входе

 

 

 

17

В

работах

по

теории помехоустойчивого приема показано,

что в ряде случаев существуют оптимальные, т.е. наилучшие в соответствии с заданным критерием оценки эффективности, методы приема сигналов в условиях воздействия помех. В задачах электросвязи широко используется критерий Котельникова, в соответствии с которым наиболее эффективным считается алгоритм приема, обеспечивающий при прочих равных условиях минимальное среднее значение вероятности ошибки. Если существует алгоритм, реализующий наивысшую, предельно достижимую, эффективность, то его называют оптимальным и говорят, что он обеспечивает прием информации с потенциальной помехоустойчивостью.

В частности, показано, что для задачи приема полностью известного сигнала на фоне гауссова белого шума оптимальное решение существует и сводится к формированию и сравнению корреляционных интегралов между принимаемой реализацией смеси сигнала с помехой и эталонными копиями сигналов на интервале существования одиночного сигнала. Такой метод приема называют когерентным. Применение когерентных алгоритмов возможно только в том случае, если о сигнале в точке приема известно все, включая начальную фазу.

Средняя вероятность ошибки на один символ при когерентном приеме двоичных сообщений определяется выражением

 

 

 

 

 

 

 

Рош

 

 

Q

 

Eэ

 

,

 

 

 

 

 

 

 

 

 

2N0

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

(2.8)

 

 

 

 

 

 

 

 

 

 

 

1

 

 

 

 

2

 

 

 

 

 

 

где

Q(х)

 

 

 

 

exp(

 

 

 

)d

1 F (x) - дополнительная функция

 

 

 

 

 

 

 

 

 

 

 

 

 

2

2

 

 

 

 

 

 

 

x

 

 

 

 

 

 

 

 

ошибок,

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

1

 

 

x

2

 

 

 

 

 

 

F (х)

 

 

 

exp(

 

 

 

)d

- функция ошибок (функция Лапласа),

 

 

 

 

 

 

 

 

 

 

 

 

2

 

2

 

N0 – спектральная плотность мощности помехи на входе демодулятора, Еэ – эквивалентная энергия ансамбля сигналов, равная αE, где E – энергия одиночного сигнала на входе демодулятора, α – коэффициент, зависящий от вида модуляции: для АМ α=1, для ортогональной ЧМ α=2, для

ФМ с противоположными сигналами α=4.

Требование знания начальной фазы сигнала является довольно жестким, поскольку фаза зависит от длины пути распространения сигнала от передатчика к приемнику, которая зачастую неизвестна или флуктуирует. Задача оптимального по критерию Котельникова приема сигнала с неопределенной фазой на фоне гауссового белого шума также имеет решение. Такой алгоритм называют оптимальным некогерентным, его реализация основана на использовании огибающей корреляционных интегралов.

18

Помехоустойчивость оптимального некогерентного алгоритма приема так же характеризуется средней вероятностью ошибки, которая для случая ортогональных сигналов с одинаковой энергией равна

P

1

exp

E

.

 

 

ош

2

 

2N0

 

 

(2.9)

Сигналы с ФМ при некогерентном приеме применять нельзя, поскольку неизвестная начальная фаза делает их неразличимыми. Тем не менее, если сдвиг фазы в канале меняется медленно, разности фаз между соседними элементами практически неизменны и можно построить некогерентный метод приема, основанный на оценке фазы текущей посылки относительно фазы предыдущей. Это подразумевает использование при передаче ОФМ. Средняя вероятность ошибки при некогерентном приеме ОФМ

P

1

exp

E

.

(2.10)

 

 

ош

2

 

N0

 

 

 

 

Схемотехнически оптимальные приемники могут быть реализованы корреляционным или фильтровым методом. Помехоустойчивость обоих методов одинакова, поскольку оба они формируют одни и те же значения корреляционных интегралов. Выбор метода реализации оптимального приемника определяется удобством его схемотехнического решения.

Сложность реализации оптимального алгоритма приема в некоторых случаях порождает интерес к неоптимальным алгоритмам. Желательно, чтобы такой алгоритм имел простое схемотехническое решение и при этом по возможности мало проигрывал оптимальному в помехоустойчивости. Примеры неоптимальных приемников приведены в [1, с.205-206; ].

По формулам (2.8) – (2.10), исходя из заданной вероятности ошибки, спектральной плотности мощности помехи и длительности сигнала, можно выразить и найти необходимую минимальную энергию и мощность сигнала на входе приемника.

2.4.Пропускная способность канала связи

Пропускная способность дискретного канала связи – это максимальное значение взаимной информации между входом и выходом канала. Для двоичного симметричного канала без памяти пропускная способность полностью определяется вероятностью ошибки Pош:

C 1

Pош log2 Pош

(1 Pош ) log2 (1

Pош ) бит/символ.

 

Пропускная

способность

канала в единицу времени

C Cvк ,

где

vк 1/ T - скорость передачи символов по каналу связи.

 

 

Информационная производительность

источника

определяется

формулой (2.3).

Сравнивая

пропускную

способность

канала

и

 

19

 

 

 

производительность

источника, можно

сделать

вывод

о

потенциальных возможностях передачи сообщения от источника по заданному каналу.

2.5. Расчет мощности передатчика

Сигнал, генерируемый передатчиком, через фидерный тракт поступает на передающую антенну, далее, через среду распространения (открытое пространство), на приемную антенну и оттуда через фидер на вход приемника. Мощность сигнала на входе приемника при этом определяется уравнением радиосвязи:

 

PперGперGпр

2

 

Pпр

 

,

(4

)2 r 2

 

 

 

 

где Pпер – мощность передатчика,

Gпер и Gпр – коэффициенты усиления передающей и приемной антенн соответственно,

λ – рабочая длина волны, r – расстояние.

2.6.Передача аналоговых сигналов методом ИКМ

Дискретный канал связи можно использовать и для передачи непрерывных (аналоговых) сообщений. Чтобы это реализовать, необходимо сначала преобразовать аналоговое сообщение в цифровую форму, сохранив при этом наиболее существенную часть информации [1, с.335-343].

Передача аналогового сигнала методом ИКМ сопровождается искажениями. Первое из них – шум квантования, возникающий вследствие неточностей представления непрерывного по уровню сигнала символами алфавита конечной размерности. При равномерном квантовании сообщения на L=2n уровней отношение мощности сообщения к мощности шума квантования составляет

P

 

3(L 1)2

 

3(2n 1)2

 

b

 

 

 

 

,

Pшк

2

2

 

 

 

 

 

 

где Π – пик-фактор сообщения.

Снижать влияние шума квантования можно увеличением количества уровней, а также переходом к неравномерной шкале квантования.

Вторая причина искажений аналогового сообщения – ошибки в дискретном канале в результате действия помех. Ошибочно принятые элементарные сигналы порождают ошибочные кодовые комбинации и неверное воспроизведение переданного отсчета сообщения. Средняя мощность шума, обусловленного ошибками в канале

20

 

 

n

2 n

2(i 1)

 

2

n

2(i 1)

 

2 4n

1

,

P

1 (1 P )

 

 

2

 

P

 

2

 

P

 

 

 

 

 

 

 

 

 

 

 

ок

ош

 

n i 1

 

ош

 

 

 

ош

3

 

 

 

 

 

 

 

i

1

 

 

 

 

где – шаг квантования сообщения.

Отношение мощности сообщения к мощности шума ошибок канала

P

 

 

3 4n

 

 

b

 

 

 

 

 

.

Pок

 

P

2

(4n

1)

 

 

 

 

ош

 

 

 

Соседние файлы в предмете [НЕСОРТИРОВАННОЕ]