Добавил:
Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:

Экзамен 2021 / ОТС Лекции 1 и 2 часть

.pdf
Скачиваний:
102
Добавлен:
28.01.2022
Размер:
1.06 Mб
Скачать

Согласованный фильтр обеспечивает на выходе максимальное отношение мощности сигнала к мощности шума (с/ш), если помеха является белым шумом. Выше было показано, что для помехи типа АБГШ отношение мощности сигнала к мощности шума на выходе СФ при оптимальном выборе характеристик СФ равно (3.4), т.е. отношению энергии посылки сигнала к спектральной плотности энергии белого шума:

h02 = Ес /G0

(3.11)

Это максимальное отношение, которое может быть получено для помехи типа белый шум.

На базе СФ можно построить оптимальный приемник. Если передаются двоичные сигналы U1(t) и U0(t), то оптимальный приемник содержит два фильтра: СФ1, согласованный с сигналом Ul(t), и СФ0, согласованный с сигналом U0(t).

Сигналы U1(t), U0(t) - это импульсы длительностью Т, форма которых зависит

от вида модуляции:

 

 

ДАМ: U1(t)=Um cos ω0t ;

U0=0;

 

ДЧМ: U1(t)=Um cos ω1t;

U0(t)=Um cos ω0t ;

(3.12)

ДФМ: U1(t)=Um cos ω0t ;

U0(t)= - Um cosω0t ;

 

Оптимальный приемник двоичных сигналов на согласованных фильтрах показан на рис.3.4. Если напряжение V1на выходе СФ1 больше, чем V0, то решение приемника - "1", если V1 < V0, то решение приемника - "0" .

Рис.3.4. Выражения (3.12) позволяют сделать вывод, что оптимальный приемник сигналов ДАМ и ДФМ должен содержать только один СФ с АЧХ, равной:

 

UmТ

 

sin

(ω ω0 )Т

 

 

 

 

 

 

 

 

| K(jω) |=

2

 

 

 

2 (ω ω0 )Т

 

 

 

 

 

 

 

 

 

 

2

 

 

(3.13)

 

 

 

 

 

 

 

 

Оптимальный приемник сигналов ДЧМ должен содержать два СФ:

СФ1 с АЧХ, равной:

СФ0 с АЧХ, равной:

 

 

UmТ sin

(ω ω1 )Т

 

 

 

 

 

 

 

 

 

 

 

 

| K1 (jω) |=

 

 

2

 

 

 

 

(3.14)

 

2

 

 

 

 

(ω

ω1 )Т

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

2

 

 

 

 

 

 

 

 

UmТ sin

(ω ω0 )Т

 

 

 

 

 

 

 

 

 

 

 

 

 

| K0

(jω) |=

2

 

 

 

(3.15)

2

 

 

 

 

 

 

(ω ω

0 )Т

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

2

 

 

 

 

 

16

Потенциальная помехоустойчивость такого приемника совпадает с помехоустойчивостью оптимального приемника.

3.2. Шумоподобные сигналы (Ш П С).

Одна из трудноразрешимых проблем при разработке новых систем связи – проблема нахождения оптимальных систем сигналов, реализующих максимальные скорость передачи и помехоустойчивость приема. Для

многолучевых каналов мобильной связи устойчивую связь можно получить, в частности, используя сложные, шумоподобные сигналы. К таким сигналам

относятся М-последовательности, коды Баркера, функции Уолша и т.п. Сложные или шумоподобные сигналы называют также псевдослучайными последовательностями (ПСП). Псевдослучайная последовательность - это

последовательность 1 и -1, которые генерируются по определенным известным

правилам, но внешне напоминают реализацию шума. По этой причине такие последовательноси называются также шумоподобными. Для ПСП характерно

также, что их база В, т.е. произведение длительности сигнала Т на ширину его

спектра F значительно больше 1:

 

B=FT>> 1.

(3.16)

Поэтому ПСП называют также сигналами с большой базой. ПСП выбирают так, чтобы их автокорреляционная функция [3] имела явно выраженный максимум, а взаимокорреляционная функция была близка к нулю.

Рассмотрим свойства М-последовательностей, которые являются разновидностью линейных рекуррентных последовательностей (ЛРП). Двоичные линейные рекуррентные последовательности – это последовательности двоичных символов {аi}={a1,a2,…..ai}, удовлетворяющих рекуррентному правилу:

с0аi 1аi+1 с2аi+2 с3аi+3 с4аi+4 …. сkаi+k ; сi=0 или 1; (3.17) Устройство, генерирующее ЛРП состоит из элементов памяти и сумматоров

по модулю 2. Эти операции делает регистр сдвига с обратными связями. ЛРП задаётся производящей функцией G(x), под которой понимают формальный степенной ряд :

 

 

 

Ґ

 

 

 

 

G(x) = аi хi

 

(3.18)

 

 

 

i=0

 

 

 

 

 

mod2

 

 

где аi - символы последовательности;

хi - определяет место символа в

последовательности (i=0 – первый символ слева).

 

Например : 10110= а0 х0 а1 х1 а2 х2 а3 х3 а4 х4=1 х2 х3 ;

так как: а0 =1 ; а1=0 ; а2 =1 ; а3 =1; а4=0 .

 

 

Производящую функцию можно представить в виде:

 

 

G(x) =

g(x)

;

 

(3.19)

 

 

 

 

 

f(x)

 

 

g(x) – многочлен степени r<k;

 

 

k

 

 

 

 

 

f(x) = сiхi

- характеристическое уравнение или

характеристический

i=1

 

 

 

 

 

mod2

 

 

 

 

 

многочлен

Степень ЛРП равна памяти регистра сдвига. Задаваясь разными

17

многочленами g(x) и f (x), можно получить разные ЛРП. Например, пусть g(x)=1, f (x)= 1 х2 х5. В результате деления g(x) на f(x) получим последовательность: 1010110101….., т.е. некоторую ЛРП.

Каждому характеристическому многочлену степени k соответствует некоторое множество последовательностей с периодом Ni , определяющим циклическую структуру данной последовательности. Если период ЛРП равен N=2k-1, то такие последовательности называются последовательностями максимального периода или М – последовательностями. Если данная ЛРП

является М-последовательностью, то её характеристический многочлен f(x) - неприводимый многочлен, т.е. его нельзя разложить на произведение двух

или более многочленов. Существуют таблицы неприводимых многочленов разных степеней. Например, существует 4 двоичных многочлена 2-ой степени, из которых:

-(х)2 =(х)(х) - приводимый;

-х2 1=(х 1)(х 1) – приводимый,

т.к. (х 1)(х 1) =( х2 х х 1)= х2 1; при выполнении умножения следует помнить, что х х=0;

-х2 х =х(х 1) – приводимый;

-х2 x 1 –неприводимый.

Структурные свойства М – последовательностей:

1.Период М – последовательности равен N=2k –1, где k – степень характеристического многочлена.

2.М – последовательности имеют максимальный период среди ЛРП с равными степенями характеристического многочлена.

3.В М – последовательности порядка k содержатся все кодовые комбинации из k символов, кроме комбинации из одних нулей, причем каждая

комбинация встречается только один раз. Например, М – последовательность порядка k=3 имеет вид:001011100101110010111….. Её период N = 23 –1 =7 и содержит последовательность 0010111. Последовательность из 18 импульсов содержит все возможные комбинации из 3-х импульсов 001,011,100,101,110,010,111.

4.В одном периоде М – последовательности порядка k содержится 2k-1 «единиц» и (2k-1–1) «нулей».

5.Корреляционные свойства М – последовательностей.

Наиболее общей характеристикой корреляционных свойств М – последовательностей является взаимная функция неопределенности (ВФН) Rjk(τ,):

 

1

 

 

 

 

Rjk (ф,Щ) =

Аj

(t)А*k

(t - ф) еjЩtdt;

(3.20)

 

 

-

Е – энергия М – последовательностей;

A(t)j , Ak*(t) – j-я и k-я М – последовательности (звёздочка означает комплексно сопряженную функцию).

Сечение ВНФ при Ω=0 дает взаимную корреляционную функцию Rjk(τ).

18

Если j=k , то выражение (3.20) даёт функцию неопределённости ФН. При j=k и =0 получим из (3.20) нормированную автокорреляционную функцию, связанную преобразованием Винера-Хинчина с энергетическим спектром М – последовательности G(ω):

 

1

 

1

 

 

R(ф) =

 

Аj(t)А*j (t - ф) dt =

 

G(щ) ejщtdщ;

(3.21)

4рЕ

 

 

 

 

 

 

-

 

 

-

 

 

Если М – последовательность периодически повторяется с временным периодом Tп=NТ, где Т- длительность одного импульса, то автокорреляционная функция периодической М – последовательности (ПАКФ) равна:

 

 

 

 

 

 

 

ф

 

1

 

 

1 NT

 

 

[1-

 

 

(1+

 

)];| ф|< T;

 

 

 

Т

N

R(ф) =

 

 

аi

(t)аi

(t - ф)dt =

 

 

 

 

 

 

NT 0

1

 

 

 

 

 

 

 

 

 

; Тф(N -1)T;

 

 

 

 

 

-

 

 

 

 

 

 

N

 

 

 

 

 

 

 

 

 

(3.22)

 

 

 

 

 

 

 

 

 

 

На рис.3.5 показана стандартная ПАКФ М – последовательности. Нормированная ПАКФ:

-имеет максимум, равный 1;

-является периодической с периодом NT;

-длительность (ширина) пика ПАКФ равна Т;

-боковые лепестки постоянны и равны -1/N.

Взаимная ПКФ зависит от выбора М-последовательностей. Проблема состоит в том, чтобы подобрать достаточное количество М-последовательностей , для которых взаимная ПКФ не превышает заданной величины. Для хороших М- последовательностей уровень боковых лепестков имеет величину N-0.5.

R(τ)

1

τ

Рис.3.5.

М-последовательности формируются регистром сдвига, который представляет собой генератор двоичных последовательностей. Он содержит

триггерные ячейки (элементы памяти) и сумматоры по модулю 2, охваченные обратными связями. Регистр сдвига является цифровым автоматом, работа которого описывается характеристическим полиномом f(x) степени k. Этот

полином, как указано выше, является:

-неприводимым ;

-примитивным (первообразным), т.е. на него делится без остатка полином степени (1+хN) при N=(2k –1) и на него не делится без остатка полином (1+хL) при L<N.

19

Количество ячеек регистра равно степени характеристического полинома k. Если коэффициент аi =1, то выход i-ой ячейки подключен к сумматору по модулю 2, если коэффициент аi =0, то выход i-ой ячейки не подключен к сумматору по модулю 2. На рис.3.6 приведена схема регистра сдвига, описываемого характеристическим полиномом f(x)= 1 х2 х3. Для него k=3 (3 ячейки) и выходы 2-ой и 3-ей ячеек подключены к сумматору по модулю 2.

 

1

 

 

 

 

 

 

 

ВЫХОД

 

 

2

 

 

 

3

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

Рис.3.6.

Пусть регистр находится в состоянии 100, т.е. в 1-ой ячейке записана ‘1’, во 2-ой и в 3-ей ячейках записан ‘0’. Тактовые импульсы сдвигают импульсы, записанные в ячейках «вправо». Так как во 2-ой и 3-ей ячейках записаны нули, то на выходе сумматора тоже ‘0’ и ‘0’ записывается в 1-ю ячейку. Из 1- ой ячейки ‘1’ записывается во 2-ю, а ‘0’ из 2-ой записывается в 3-ю. Из 3-ей ячейки “0” идет на выход. Регистр перешел в состояние 010. Теперь на выходе сумматора 1+0=1. Следующий такт : ‘1’ из сумматора записывается в 1-ю ячейку, ‘0’ из 1-ой ячейки записывается во 2-ю, ‘1’ из 2-ой ячейки записывается в 3-ю, ‘0’ из 3-ей ячейки идет на выход и т.д. В результате на выходе получаем М-последовательность: 0010111001011100101110010111….. У неё период N=23-1=7 импульсов, в периоде 22-1=3 нуля и 22=4 единицы.

Проблема состоит в том, чтобы получить достаточно большое количество М- последовательностей с достаточно малыми взаимно-корреляционными функциями. Количество М-последовательностей равно Q = ϕ(N)/k, где ϕ(N) – функция Эйлера, т.е. количество чисел в ряду от 1 до (N-1) взаимно простых с N . Если N – простое число, то ϕ(N)= N-1.

Для k=3, N=7, ϕ(7)=6, Q=2. Для k=19, Q=27594.

Одним из типов ПСП являются коды Баркера. Это сравнительно короткие ПСП длиной 3, 5, 7, 11, 13 импульсов. На рис. 3.7 показана временная диаграмма кода Баркера с N=11:

+1 +1 +1 -1 -1 -1 +1 -1 -1 +1 -1. На рис.3.8 показана его автокорреляционная функция.

Рис. 3.7.

20

Рис.3.8.

Сильной стороной этих кодов является то, что боковые лепестки автокорреляционных функций имеют уровень 1/N.

3.3.Фильтры, согласованные с шумоподобными сигналами. Согласованные фильтры обычно используются для оптимального приема шумоподобных сигналов (ШПС). Аналоговый фильтр, согласованный с ШПС содержит:

1.Линию задержки с отводами; количество отводов равно количеству импульсов, время движения импульса от одного до другого отвода равно длительности импульса;

2.Фазовращатели (+, -); фазовращатель со знаком "+" не меняет, а со знаком "-" меняет знак входного импульса на противоположный; чередование знаков фазовращателей совпадает с зеркальным отображением чередования знаков в сигнале.

3.Сумматор; 4.Фильтр согласованный с одиночным прямоугольным импульсом (ФСОИ).

На рис.3.9 нарисована структурная схема фильтра, согласованного с кодом Баркера из 11-ти импульсов:+1+1+1-1-1-1+1-1-1+1-1. Этот СФ имеет линию

задержки с 11-ю отводами, фазовращатели, сумматор и ФСОИ.

Чередование знаков фазовращателей в СФ: "- + - - + - - - + + +" , совпадает с зеркальным отображением чередования знаков в сигнале.

На рис.3.10 изображена временная диаграмма напряжения u1(t) на выходе сумматора фильтра, согласованного с 11-значным кодом Баркера, при подаче на его вход согласованного с ним сигнала (толстая линия).

С выхода сумматора сигнал поступает на вход фильтра, согласованного с одиночным прямоугольным импульсом. Фильтр, согласованный с одиночным прямоугольным импульсом, дает на выходе автокорреляционную функцию этого импульса (рис.3.11.).

21

Рис.3.9.

Рис.3.10.

Рис.3.11.

Если на вход фильтра подаётся согласованный с ним сигнал, то на выходе мы получаем автокорреляционную функцию сигнала. В соответствии с этим нарисована временная диаграмма напряжения на выходе полного фильтра,

22

согласованного с кодом Баркера. (тонкая линия на рис.3.10). Фильтр ФСОИ преобразует каждый прямоугольный импульс напряжения u1(t) в треугольный.

4. ЭНТРОПИЯ. СТАТИСТИЧЕСКОЕ КОДИРОВАНИЕ.

4.1. Энтропия.

Информационная содержательность сообщения определяется вероятностью его появления. Количество информации, которое заключено в некотором

сообщении

с вероятностью появления p(i), равно:

 

I=

-log2 p(i)

(4.1)

Основание логарифма определяет единицы измерения количества информации. Обычно, в теории информации основание логарифма принимают равным 2, т.е. количество информации измеряют в двоичных единицах (1 дв. ед.) или битах (1 бит). Одна двоичная единица информации или один бит - это количество информации, которое мы получаем, если произошло событие, вероятность появления которого равна 0.5:

I= -log2 0.5 =1 дв. ед. =1 бит.

Обычно, основание логарифма не пишут, считая, его, по умолчанию, равным 2. Свойства меры количества информации:

1.Количество информации величина неотрицательная: I ≥ 0 . 2.Чем меньше p, тем больше I. Действительно:

p = 0.5 => I= -log2 0.5 =1 дв.ед. ; p = 0.125 => I= -log2 0.125 = 3 дв.ед.

3. Количество информации, заключенное в достоверном событии с

вероятностью появления p=1, равно 0: I= -log21= 0 дв.ед.

4. Количество информации обладает свойством аддитивности: количество информации, заключенное в совокупности независимых сообщений, равно сумме количеств информации, заключенных в каждом сообщении в отдельности.

Если сообщения независимы, то вероятность совместного появления i-го, j-го и т.д. k-го сообщений равна p(i,j…k)=p(i)р(j)…р(k) и, следовательно:

I(i,j…k)= -log2 p(i,j…k)= -log2 p(i)р(j)…р(k) =

 

= - log2 p(i) -log2 р(j) - …. - log2 р(k)= I(i)+I(j)+….+I(k) ;

(4.2)

Сообщения источника

информации принимают

различные

значения с

разными вероятностями,

которым соответствует

различное

количество

информации. Для характеристики источника информации вводят среднюю

меру, которая называется «энтропия источника информации».

Энтропия (H) - это среднее количество информации, приходящееся на одно сообщение, символ, слово источника информации.

Энтропия характеризует также среднюю неопределенность ситуации. Чем больше энтропия, тем больше неопределенность ситуации и , следовательно, тем больше информации мы получаем, когда принимаем некоторое сообщение, которое устраняет неопределенность.

Рассмотрим дискретный источник информации, который производит последовательность кодовых символов, соответствующих передаваемой информации. Предположим, что символы в кодовом слове – независимы и могут принимать одно из m возможных значений. В этом случае

23

энтропия

 

дискретного

 

 

источника

независимых

символов

равна:

m

 

 

 

 

 

 

 

 

 

 

 

 

 

дв. ед.

 

 

Н = -

р

 

logp

 

= -р logp

 

logp

 

- .....-рmlogp

 

;

 

 

(4.3)

 

 

 

 

 

 

 

 

k = 1

 

k

 

k

1

1

 

2

 

2

 

 

m

 

символ

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

pk - вероятность к-го символа.

m - основание кода,т.е. общее количество разных символов.

Энтропия дискретного источника независимых сообщений максимальна, если все сообщения равновероятны т.е.:

 

 

 

p1 = p2 =…= pm =1/m ,

 

 

(4.4)

так как сумма всех вероятностей равна 1: p1 + p2 + … + pm = 1.

 

Рассчитаем максимальное значение энтропии:

 

 

 

Hmax = -

1

log

1

-......-

1

log

1

= -m(

1

log

1

) = -log

1

= logm;

(4.5)

 

 

 

 

 

 

 

 

m m

m m

m m

m

 

Если m=2 , то H max = log2 = 1 дв.ед/символ; если m=16, то H max = log16 = 4 дв.ед/символ.

Энтропия двоичного источника независимых сообщений может быть определена по формуле:

Н = -р0logp0 -р1logp1;

(4.6)

p0 - вероятность передачи 0; p1 - вероятность передачи 1.

Максимальное значение энтропии двоичного источника равно 1дв.ед./символ , если p0 = p1 =0.5.

Если вероятность одного из символов равна 0 или 1, то энтропия двоичного источника равна 0. Зависимость энтропии двоичного источника от p0 показана на рис.4.1.

Энтропия характеризует источник, производящий сообщения, принадлежащие некоторому ансамблю А, в котором определены сообщения и их вероятности. Поэтому энтропия источника обозначается H(A).

H

1

0

0,5

1

p0

 

 

Рис.4.1.

 

4.2. Статистическое кодирование (кодирование источника) Кодирование - это отображение сообщений совокупностью кодовых символов, которые называются кодовой комбинацией.

Количество различных символов, которые образуют все кодовые комбинации, называют основанием кода - m.

24

Количество символов, образующих данную кодовую комбинацию, называют

длиной кодовой комбинации – n.

Общее количество кодовых комбинаций равно: N=mn . Если m=2, n=1 =>N=21=2 => возможные комбинации: 1;0.

m=2, n=2 =>N=22=4=> возможные комбинации: 00;01;10;11. m=3, n=1 =>N=31=3=> возможные комбинации: 1; -1; 0.

Физический смысл символов может быть произвольным: это могут быть символы разной частоты, или разной амплитуды, или разной формы и т.д.

Т.к. энтропия характеризует среднее количество информации, которое переносит один кодовый символ, то чем больше энтропия, тем быстрее можно передать заданное количество информации. Используя различные способы кодирования, можно сформировать новый код, у которого энтропия будет больше, чем у исходного кода.

Сформулируем качественно основные способы увеличения энтропии.

1) Наличие корреляционных связей между сообщениями,

символами

уменьшает энтропию. Для увеличения энтропии осуществляют

операцию

декорреляции символов, сообщений. Один из способов декорреляции символов - укрупнение сообщений, т.е. символами нового кода будут не отдельные буквы, а целые слова. Корреляционные связи между словами гораздо меньше, чем между символами. Следовательно, укрупненные символы нового кода, соответствующие словам старого кода будут практически некоррелированы, т.е. энтропия нового кода увеличится.

Например, сообщение «удовлетворительно», состоящее из 17 букв, можно закодировать одной цифрой «3». Т.о. скорость передачи информации для этого частного случая увеличится в 17 раз, так как одно и то же количество информации будет передано не 17-ю символами, а только одним символом. Однако, при этом падает помехоустойчивость приема, так как ошибку при приеме символа «3» исправить невозможно, а ошибка в одном из 17 символов слова «удовлетворительно» практически не изменяет смысла всего сообщения

благодаря корреляционным связям между буквами.

Второй способ декорреляции символов - предсказание следующего символа по предыдущим и передача только ошибки предсказания.

2) Неравновероятность сообщений уменьшает энтропию. Для увеличения энтропии надо перекодировать сообщения так, чтобы символы нового кода были практически равновероятны. При этом наиболее вероятные сообщения кодируются наиболее короткими кодовыми комбинациями.

3) Для дальнейшего увеличения энтропии необходимо увеличивать основание кода m, так как для источника (кода) с равновероятными символами максимальное значение энтропии равно Нmax =logm.

4.3. Устранение корреляционных связей между символами источника путем укрупнения сообщений.

Цель статистического кодирования - увеличение энтропии и, как следствие, увеличение скорости передачи информации.

25