Добавил:
Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:

Экзамен 2021 / ОТС Лекции 1 и 2 часть

.pdf
Скачиваний:
102
Добавлен:
28.01.2022
Размер:
1.06 Mб
Скачать

3. Формируем вектор ошибки V, т.е. кодовую комбинацию, которая содержит единицу на той позиции, где произошла ошибка. Формирование синдромов и векторов ошибок можно произвести заранее, искажая

последовательно символы в комбинации. Например, приняли: 0 0 0 0 0 0 0; (C1C2C3C4) = 0 0 0 0; V = (0 0 0 0 0 0 0) - ошибок нет;

Пусть приняли: 0000001 - это запрещенная комбинация ( ошибка в символе а7). Вычисляем синдром: (C1C2C3C4) = 0001. Вычисляем вектор ошибки: V=(0000001). Составим таблицу синдромов и соответствующих векторов одиночных ошибок .

Вектор

 

0000000

0000001

0000010

 

0000100

0001000

 

0010000

 

 

 

0100000

1000000

ошиб-

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

ки

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

Син-

 

0000

0001

 

0010

 

 

 

0100

1000

 

1101

 

 

 

1011

 

0111

дром

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

В соответствии с алгоритмами кодирования и

декодирования

составим

структурные схемы кодера и декодера кода (7,4).

 

 

 

 

 

 

 

 

 

 

 

 

Структурная схема кодера кода (7,3).

 

 

 

 

a1

 

 

 

 

 

 

 

 

 

 

 

 

a1

 

 

 

 

а2

 

 

 

 

 

 

 

 

 

 

 

 

 

 

2

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

а

 

 

 

 

а3

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

а3

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

а4

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

а5

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

а6

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

а7

Рис.5.1.

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

Структурная схема декодера кода (7,3).

 

 

 

a1, а2, а3, а4, а5, а6, а7

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

С1

a1234567 Форми-

C2 рователь

C3

вектора V

 

 

ошибки

 

 

 

C4

 

 

 

 

Рис.5.2

36

.

5.3. Циклические коды Характерной особенностью циклических кодов является то, что циклическая

перестановка символов одной комбинации, например, 1001011 дает новую комбинацию того же кода 1100101. Теория циклических кодов базируется на теории двоичных полиномов. Циклические коды – это одна из разновидностей полиномиальных кодов. Каждая комбинация записывается в виде двоичного

полинома степени

(n-1) с коэффициентами ак = 0 или 1:

 

 

a(z) = аn-1zn-1 + аn-2zn-2 +…+ а1z + а0 (5.2)

Например:

 

 

1

0 1

a(z) = а2z2 + а1z + а0 = z2 + 1

Алгоритм формирования циклического кода на примере кода (7, 4). Комбинации данного циклического кода состоят из 7 символов, из которых 4 символа информационные и 3 – проверочные.

1) Записываем возможные информационные комбинации из 4-х символов: 0000, 0001, 0010, 0011, 0100, 0101, 0110, 0111, 1000, 1001, 1010, 1011, 1100, 1101, 1110, 1111.

2) Каждую комбинацию записываем в виде полинома. Например: 1 0 0 1 a(z) = z3 + 1

а3 а2 а1 а0 3) Выбираем из таблиц образующий полином, степень которого соответствует

количеству проверочных символов. В данном случае количество проверочных

символов (n-k) =3. Выбираем полином:

р(z) = z3 + z +1 ;

1 1 0 1

4) Полином, соответствующей информационной комбинации

умножается на

p(z):

 

 

 

(z3 + 1) (z3 + z +1)= z6 +z4 +z +1

1010011

 

В результате получим 16 комбинаций циклического кода (7,4): 0000000, 0001011, 0010110 и т.д…... Код состоит из совокупности двух подмножеств по 7 комбинаций, внутри которых циклические перестановки дают остальные и двух комбинаций 0000000 и 1111111. Минимальное кодовое расстояние равно 3, т.е. данный код исправляет все одиночные ошибки.

Алгоритм декодирования циклического кода на примере кода(7,4).

1) Принятая кодовая комбинация делится на образующий полином. Остаток от деления есть синдром, который указывает на позицию, где произошла ошибка. Т.к. синдром не зависит от передаваемой комбинации, а зависит только от позиции, в которой произошла ошибка, то синдромы можно вычислить заранее. Например, передавали комбинацию 0000000, под действием помехи она превратилась в 0100000, т.е. ошибка в 6-ом символе справа. Разделим 0100000

на р(z)=1101:

0100000 | 1101

 

0000

0111

1000

1101

1010

1101

1110

1101

011

37

Остаток 011 и есть синдром, указывающий, что ошибка произошла в 6-ом символе справа.

2) В соответствии с синдромом формируется вектор ошибки, т.е. кодовая комбинация, которая содержит 1 в той позиции, где произошла ошибка. Для данного примера вектор ошибки V=0100000. Вектор ошибки суммируется по модулю 2 с принятой комбинацией:

0100000 0100000 = 0000000

Ошибка исправлена.

5.4.Сверточный код (решетчатый)

Свёрточный код относится к классу непрерывных кодов. Сверточный кодер (рис.5.3) после формирования выходной комбинации, соответствующей входному информационному символу, не переходит в исходное начальное состояние, а кодирует следующий информационный символ, начиная кодирование из того состояния, в котором он оказался после передачи предыдущего символа. Следовательно, между символами выходной кодированной последовательности существуют корреляционные связи, позволяющие повысить помехоустойчивость декодирования.

Кроме этого, сверточный кодер имеет не один, а n выходов, на каждом из которых формируется из одной и той же информационной последовательности своя собственная выходная последовательность в соответствии с порождающим полиномом, соответствующим данному выходу. Для рис. 5.3 n=2 и порождающие полиномы имеют вид: p1(z)= =(1+z2); p2(z)=(1+z+z2). Сначала передаются первые импульсы с каждого из n выходов, потом вторые и т.д. Очевидно, что скорость передачи падает в n раз.

Вход

 

 

 

 

1

 

1

2

 

3

Выход

 

 

 

 

 

 

 

 

2

Км

 

 

 

 

 

Рис.5.3.

Сверточный код – частный случай решетчатых кодов. Решетчатая диаграмма на рис.5.4 для сверточного кода, формируемого кодером рис.5.3 - это один из способов задания сверточного кода. Каждое сечение соответствует внутреннему состоянию кодера; ребро соответствует передаваемому символу на входе: верхнее – 0; нижнее - 1. Около ребра написана комбинация из двух бит, которая появится на выходе, если на входе 1 или 0.

38

Рис.5.4.

Пусть на вход кодера рис.5.3 поступила комбинация 101. Ей соответствует полином a(z)=1+ z2. На первом выходе кодера получим b1(z)=a(z)*p1(z)= =(1+z2)*(1+ z2)=1+z4. Этот полином соответствует комбинации 10001.

На втором выходе кодера получим b2(z)=a(z)*p2(z)= (1+z2)*(1+z+z2) =1+ +z+z3+z4. Это соответствует комбинации 11011.Следует учесть, что сложение коэффициентов осуществляется по модулю 2, т.е.z+z=(1 1)z=0.

Совместим эти комбинации: сначала передается первый символ с первого выхода, потом первый символ со второго выхода, потом второй символ с первого выхода, потом второй символ со второго выхода и т.д. Получим 110100…… Аналогичный результат получим с помощью решетчатой диаграммы: при передаче 1 идем по нижнему ребру и в канал связи передается 11, далее передается 0, идем по верхнему ребру и в канал передается 01, далее передается 1, а в канал идет 00 и т.д.

Структурная схема декодера сверточного кода показана на рис.5.10. Декодирование сверточного кода осуществляется в соответствии со схемой рис.5.10. Пусть передавали 110100…., приняли 100100…Ошибка во 2-ом символе. Покажем, как декодер исправляет эту ошибку.

Вход

Вычис-

 

Вычис-

 

Блок

 

Блок

 

 

литель

 

литель

 

выбора

 

выбора

Выход

 

метрик

 

метрик

 

выживших

 

наивероят-

 

ветвей

 

путей

 

путей

 

нейшего

 

 

 

 

 

 

 

 

пути

 

 

 

 

 

 

 

 

 

 

Рис.5.10.

Декодирование осуществляется поэтапно путем анализа очередных n бит (метрики ветвей). Для рассматриваемого кодера n=2. Приняли первые два бита 10. Кодовое расстояние между 10 и путем al, которому соответствует 00, равно

39

d=1(метрика ветви al). Кодовое расстояние между 10 и путем ab, которому соответствует 11, равно d=1 (метрика ветви ab). Сохраняем оба пути.

Приняли следующие два бита 01. Метрики путей, равные сумме метрик ветвей следующие : alm – 2; ali – 2; abf – 1; abc - 3.

Сохраняем пути (выжившие пути): alm, ali, abf. Приняли еще два бита 00. Метрики путей:

almn – 2; almj – 4; alig – 3; alid – 3; abfn – 3; abfj – 1.

Выбираем наивероятнейший путь abfj, метрика которого наименьшая – 1. Т.е. считаем, что передавалась комбинация 110100 – ошибка исправлена.

5.5. ПЕРЕМЕЖЕНИЕ Перемежение - эффективный способ борьбы с пакетами ошибок. В

реальных каналах связи принимаемый сигнал флуктуирует по амплитуде. Когда уровень сигнала падает практически до нуля, принимаемые кодовые комбинации содержат очень много ошибок, т.е. мы принимаем «пакет ошибок». Использование мощных кодов – неэффективно. На передаче осуществляется перемежение, т.е. сначала передаем первый символ первой комбинации a11, потом первый символ второй комбинации a21 и т.д. первый символ r –ой комбинации ar1. Далее передаются вторые символы и т.д.

Пусть пакет ошибок поразил группу символов a11, a21…. ar1.

На приеме осуществляется операция «деперемежение». Символы возвращаются на свои места в кодовых комбинациях. Следовательно, в каждой комбинации будет по одной ошибке в первом символе. Одиночная ошибка исправляется достаточно простым кодом.

6. ПРОПУСКНАЯ СПОСОБНОСТЬ КАНАЛА СВЯЗИ.

6.1. Условная энтропия. Взаимная информация.

В системе связи осуществляется передача информации от передатчика к приемнику. Если бы в канале связи отсутствовали помехи, то принятый сигнал ui(t) в разумно сконструированной системе связи однозначно соответствовал бы переданному vi(t). Следовательно, количество информации, содержащееся в сигнале ui(t), было бы передано по каналу связи. Количество информации, содержащееся, в среднем, в одном символе переданного сигнала, т.е. энтропия источника H (V) равнялась бы количеству информации, содержащемся, в среднем, в одном символе принятого сигнала H (U). Однако, в канале связи действуют помехи х(t) и поэтому на вход приемника поступает сумма сигнала и помехи, т.е. процесс z(t) = vi(t)+ х(t). Поэтому при передаче vi(t) с определенными вероятностями будут приняты или ui(t), соответствующий переданному vi(t), или uk(t), т.е. произойдет ошибка. Условная энтропия H(Z/U) характеризует мешающее влияние помехи, т.е. потери информации в канале связи из-за влияния помех.

Несмотря на влияние помех, процесс z(t) все-таки содержит информацию о сигнале u(t). Эта информация называется взаимной информацией I(U;Z),

содержащейся в процессе z(t) о процессе u(t). Взаимная информация равна

40

энтропии процесса z(t) минус условная энтропия, т.е. потери информации в канале связи:

I(U;Z)= H(Z) - H(Z/U) ;

(6.1)

Источники информации могут производить не только дискретные сообщения, например, буквы или цифры. Существует множество источников, которые производят непрерывные сообщения: звуковые сообщения (речь, музыка), видеосообщения (изображения неподвижных и перемещающихся предметов), различные датчики давления, температуры и т.п. Любой непрерывный процесс описывается, в частности, своей ФПВ, т.е. функцией плотности вероятности W(z). Информационные характеристики непрерывных процессов отличаются от информационных характеристик дискретных процессов. Действительно, двоичный сигнал может принимать только 2 значения и может переносить максимум 1 дв.ед. информации. Любой непрерывный сигнал может принимать бесконечно большое количество разных, сколь угодно близких друг к другу значений. Следовательно, он может переносить бесконечно большое количество информации. Т.о. абсолютное значение энтропии непрерывного сигнала бесконечно велико. Поэтому разные непрерывные процессы можно описывать только их относительной информационной содержательностью.

Относительная информационная содержательность непрерывного процесса z определяется его дифференциальной энтропией h(z):

 

h(z) = - W(z) log W(z) dz

(6.2)

-

Относительная условная информационная содержательность непрерывного процесса u при наличии процесса z на входе приемника характеризуется условной дифференциальной энтропией h (U/Z) .

Взаимная информация является по определению относительной информацией и потому без изменений распространяется на непрерывные случайные процессы. Так как условная дифференциальная энтропия также характеризует

потери информации в канале связи из-за влияния помех, то

условная энтропия

равна энтропии помехи h(Z/U)=h(U/Z)=h(Х). Следовательно:

 

I(U;Z)=h(U) - h(U/Z)= h(Z) - h(Z/U) = h(Z) - h(Х);

(6.3)

Введенные информационные характеристики дискретных и непрерывных процессов позволяют определить способы увеличения эффективности систем связи.

Рассчитаем дифференциальную энтропию равномерного распределения:

A; a x b;

(6.4)

W(x) =

 

0;

a > x; b < x;

 

Так как А=1/(b-a) из условия нормировки ФПВ, то :

b

h = -AlogAdx = log(b -a);

a

41

Аналогично, дифференциальная энтропия нормального распределения равна:

 

 

 

 

2

 

 

 

 

 

 

 

 

 

2

 

 

 

 

 

 

 

 

 

 

 

1

 

 

-

x

 

 

 

 

 

 

 

 

1

 

-

x

 

 

 

 

 

 

 

 

 

 

 

 

h=-

 

 

2

 

 

 

 

 

 

 

 

2

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

e

 

log

 

 

 

 

 

 

e

 

dx=

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

2ру2

 

2ру2

 

 

 

 

 

 

 

 

 

 

-

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

2

 

 

 

 

 

 

 

 

 

 

 

2

 

 

 

 

 

1

 

 

 

 

-

x

 

 

 

 

 

 

 

x2

 

 

-

x

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

2

 

 

 

 

 

 

 

2

 

 

=log

2ру2

 

 

 

 

 

 

 

e

 

dx+loge

 

 

 

 

 

 

e

dx=

(6.5)

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

2ру

2

 

2

 

2ру

2

 

 

 

-

 

 

 

 

 

 

 

 

 

 

 

 

 

-

 

 

 

 

 

 

 

 

=log2ру2 +0.5loge=log2рeу2;

Доказано, что дифференциальная энтропия нормального случайного процесса больше, чем энтропия любого другого случайного процесса с иной плотностью вероятности, если дисперсия процесса σ2 = const.

Следовательно, чтобы сигнал с ограниченной мощностью переносил

максимальное количество информации он должен быть нормальным шумом.

Производительность источника Н' – это количество информации производимой источником в единицу времени:

(6.6) Н – энтропия источника; Т – длительность сообщения.

Из-за влияния помехи количество переданной по КС информации уменьшается

на величину, равную количеству мешающей информации, вносимой помехой. Скорость передачи информации - количество взаимной информации

передаваемое по каналу связи в единицу времени.

I' = limT→∞

I(z;u)

;

(6.7)

T

 

 

 

Пропускная способность канала связи С - максимально возможная скорость

передачи информации (верхняя грань):

 

 

С=max I ' ;

 

(6.8)

Максимум ищется по всем возможным

распределениям

W(u), по всем

возможным способам передачи и приёма

при заданных

ограничениях на

сигнал и помеху.

 

 

Элементарная формулировка теоремы Шеннона.

По каналу связи с полосой пропускания F , в котором действует сигнал с мощностью Рс и нормальный белый шум со спектральной плотностью энергии G0, можно предавать информацию со скоростью сколь угодно близкой к пропускной способности канала связи:

C = Flog(1 +

Pc

)

(6.9)

G0F

 

 

 

При этом вероятность ошибки может быть сделана сколь угодно малой. Доказательство.

Количество взаимной информации содержащейся в процессе z(t) о сигнале u(t) равно из (6.3):

I(Z;U)=h(Z)-h(X);

42

Дисперсия белого шума x(t) в полосе F: σ 2 = G0F. Т.к. шум нормальный, то его дифференциальная энтропия равна:

h(X)=0.5 log(2πeσ 2)

Чтобы энтропия процесса z была максимальной, этот процесс должен быть нормальным случайным процессом, т.е. сигнал тоже должен быть нормальным случайным процессом с дисперсией Рс . Тогда максимальное количество взаимной информации равно :

I(Z;U)=0.5 log[2πe(Pc + σ 2)] - 0.5 log(2πeσ 2)= =0.5 log(1 + Pc / σ 2) ;

Т.к процесс на выходе канала связи финитный по спектру, то он полностью определяется по теореме Котельникова своими отсчетами взятыми через

интервал

времени T=1/2F.

Таким образом в единицу

времени следует

передавать 2F отсчетов.

 

 

 

Каждый

отсчёт процесса z(t)

несет информацию о сигнале

I(z;u). Таким

образом

за 1с максимальное

количество, переданной по

КС

информации,

равно:

 

 

 

 

С=2F*I (Z;U)=Flog(1+Pc/G0F)

Для того, чтобы вероятность ошибки была сколь угодно малой ( рош0), необходимо использовать бесконечно длинные кодовые комбинации, т.е время задержки принятия решения бесконечно велико.

Из формулы для пропускной способности следует, что при F∞ величина C стремится к пределу равному Сс log e/G0 (рис.6.1.).

C

Pcloge/G0

0F Рис.6.1.

7.МНОГОКАНАЛЬНЫЕ СИСТЕМЫ СВЯЗИ (МСС).

ВМСС осуществляется обмен информацией между многими источниками и многими получателями информации. Для того, чтобы обмен информацией

осуществлялся без взаимных помех, сигналы разных каналов uj (t) и uk (t) должны быть ортогональны:

Т

 

uj (t) uk (t) dt = 0;

(7.1)

0

 

Способ разделения сигналов определяет тип МСС.

43

МСС с частотным разделением каналов (ЧРК).

При ЧРК информация отдельных каналов передается одновременно, но в разных полосах частот. Структурная схема МСС с ЧРК показана на рис.7.1.

ИИ1 М1 ПФ1

 

Гр

 

У1

Г1

 

 

 

ПФ ДМ ПИ

линия связи Гр

У2

 

ИИn

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

Мn

 

 

ПФn

 

 

 

 

ПФn

 

ДМn

 

 

ПИn

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

Гn

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

ПЕРЕДАТЧИК

 

ПРИЕМНИК

 

 

 

 

 

 

 

 

 

 

Рис.7.1.

 

 

 

 

 

 

 

ИИ - источник информации; М – модулятор;

Г1, …Гn – генератор несущей

частоты ω1ωn ;

ПФ – полосовой фильтр;

Гр У1 – групповой усилитель

передатчика; Гр У2 - групповой усилитель приемника ;

ПИ – получатель

информации; ДМ – демодулятор (детектор);

 

 

 

 

 

 

 

Важной характеристикой МСС с

ЧРК является групповой спектр,

т.е.

спектр многоканального сигнала (рис.7.2) .

 

 

 

 

 

 

 

 

U 1-й канал 2-й канал 3-й канал

n-й канал

 

 

 

 

 

 

ПФ1

 

ПФ2

ПФ3

ПФn

 

 

 

 

 

 

 

ω1

ω2

ω3

ωn

ω

Рис.7.2.

Информация каждого канала передается на своей несущей. Разделение каналов осуществляется с помощью полосовых фильтров ПФ1-ПФn . На рис. 7.2 условно показаны спектры модулированных сигналов для случая, когда используется однополосная амплитудная модуляция. Передается не весь спектр АМ, а только остаток несущей, который называется пилот-сигналом и верхняя боковая полоса частот. На приёмной стороне полосовые фильтры имеют АЧХ, показанные условно пунктиром на рис.7.2: каждый ПФ пропускает только сигнал своего канала и теоретически не пропускает сигналы соседних по частоте каналов.

Однако, на практике возникают взаимные помехи между каналами.

44

Причины взаимных помех при ЧРК: 1)спектры сигналов бесконечны; 2)АЧХ полосовых фильтров не идеальны.

Способы уменьшения взаимных помех 1)улучшать характеристики полосовых фильтров;

2)вводить защитные промежутки по частоте между каналами (при этом увеличивается полоса частот, занимаемая системой связи); 3)уменьшать скорость работы по каждому каналу, что приводит к уменьшению ширины спектра канального сигнала.

МСС с временным разделением каналов (ВРК).

При ВРК сигналы отдельных каналов передаются в одной полосе частот, но в

разные

интервалы времени.

Структурная схема МСС с ВРК показана на

рис.7.3:

ИИ – источники

информации;

Кпрд , Кпрм – коммутатор

(переключатель) на передаче и на приеме;

Имод- импульсный модулятор;

ГТИ – генератор тактовых импульсов; ГрУ, ПФ – групповой усилитель и полосовой фильтр; ДМ – демодулятор; ПИ – получатель информации.

Импульсный модулятор модулирует по амплитуде, или по частоте, или по фазе, или по ширине последовательность тактовых импульсов, поступающих от ГТИ.

Кпрд

1

ИИ1

n

ИИn

ИМод

 

Гр Ус

 

ПФ

 

 

 

ГТИ

линия связи

ДМ1

ПИ1

Кпрм

Гр У

ПФ ДМn ПИn

Рис.7.3.

Таким образом, переносчиком информации является периодическая последовательность импульсов, поступающих от ГТИ. При ВРК информация каждого канала передается с помощью импульсов-отсчетов в соответствии с теоремой Котельникова. В зависимости от того, какой параметр импульсной

45