- •2.4 Оформление курсовой работы
- •Некоторые соотношения, необходимые для выполнения курсовой работы
- •3.5 Алгоритм идеального приемника Котельникова при равной вероятности сигналов s1 и s2 имеет вид
- •ВyS1(0) 0,5 Pc , то s1, иначе s2.
- •3.14 Пропускная способность двоичного симметричного канала связи определяется по формуле (6.34) в [1], (4.42) в [2] или по формуле (3.59) в [3].
- •Приложения
- •Список литературы
ВyS1(0) 0,5 Pc , то s1, иначе s2.
Здесь ВyS1(0) – значение функции взаимной корреляции поступившего сигнала y(t) и образца сигнала S1(t) при = 0;
0,5Pc - половина мощности сигнала на входе демодулятора.
Схема оптимального приемника представляет собой коррелятор, на который подается входной сигнал и опорный сигнал S1(t). После коррелятора стоит решающее устройство, сравнивающее значение функции взаимной корреляции в момент времени tо = Tс с величиной 0,5Рс.
Физически смысл приведенного неравенства заключается в том, что если входной сигнал y(t) содержит, кроме помехи, сигнал S1(t), то функция взаимной корреляции между входным сигналом y(t) и S1(t) - достаточно большая величина. Если же функция взаимной корреляции ByS1(0) достаточно мала, то более вероятно, что y(t) сигнала S1(t) не содержит, и приемник выдает сигнал S2(t) = 0.
3.7 В случае дискретной фазовой модуляции S1(t) = A cos0t, а
S2 (t) = - A cos0t и алгоритм оптимального приемника будет иметь вид
ByS1 (0) > 0, то S1 , иначе S2
3.8 В случае дискретной частотной модуляции S1 (t) = A cos1t,
S2 (t) = A cos2 t. Алгоритм оптимального приемника приводится к виду
ВyS1(0) > ByS2(0), то S1, иначе S2 .
3.9 Коэффициент передачи оптимального фильтра
K(j) = aS(-j) exp(-jt0),
где S(-j) - комплексно-сопряженный спектр сигнала, согласованного с данным оптимальным фильтром;
t0 - момент отcчета показаний на выходе фильтра (обычно t0 совпадает с длительностью элементарной посылки Т;
a - любой произвольный множитель.
Импульсная характеристика оптимального фильтра (отклик на входное воздействие в виде дельта-функции)
g(t) = aS(t0 - t).
3.10 Форма сигнала и помехи на выходе оптимального фильтра при подаче на его вход аддитивной смеси сигнала S(t) и помехи n(t)
y(t) = aBS (t - T) + aBnS (t - T),
где ВS (t-T) - функция корреляции сигнала;
ВnS (t-T) - функция взаимной корреляции сигнала и помехи.
3.11 В системе с импульсно-кодовой модуляцией число разрядов двоичного кода n = log2N, где N - число заданных уровней квантования сигнала ИКМ.
Отношение мощности сигнала к мощности шума квантования при импульсно-кодовой модуляции зависит от числа разрядов кода n и пик-фактора П в соответствии с выражением
,
3.12 Простейшим способом помехоустойчивого кодирования является добавление к информационным элементам кода одного проверочного элемента. Получается код с проверкой на четность. Код обнаруживает все ошибки нечетной кратности и не обнаруживает ошибок четной кратности. Если число информационных элементов кода равно 5 (код с параметрами (n,k) = (6,5)), то вероятность необнаруженной этим кодом ошибки при независимых ошибках определяется биноминальным законом
Pно = C62p2(1- p)4+C64p4(1- p)2+p6 ,
где p - вероятность искажения одного элемента кода.
Остальные сведения о помехоустойчивом кодировании приведены в [1, 2, 3].
3.13 Идея оптимального (статистического) кодирования заключается в том, что для передачи сообщений используется неравномерный код (например, код Шеннона-Фано). При этом сообщения, имеющие большую вероятность, представляются в виде коротких комбинаций, а реже встречающимся сообщениям присваиваются более длинные комбинации (под сообщением понимаются буквы, сочетания букв, или элементы букв). Такое кодирование приводит к увеличению производительности источника.
Результаты кодирования тем лучше, чем более длинные кодовые комбинации первичного кода применяются для статистического кодирования. Поэтому в данной работе предлагается перед осуществлением статистического кодирования образовать трехбуквенные комбинации, состоящие из элементов двоичного кода 1 и 0 с соответствующими заданными вероятностями p(1) и p(0) (всего 8 таких комбинаций: 000, 001, 011 и т.д. до 111). Надо вычислить вероятности этих трехбуквенных комбинаций (по теореме умножения вероятностей), например, p(001) = p(0) p(0) p(1), p(101) = p(1) p(0) p(1) и т.д. Затем, расположив эти комбинации в порядке убывания их вероятностей, осуществить оптимальное кодирование. В результате получим 8 различных комбинаций неравномерного кода. Затем определяем среднюю длину полученных комбинаций оптимального кода, она будет меньше, чем 3Т. Однако следует помнить, что полученные комбинации неравномерного кода фактически содержат информацию о трех сообщениях первичного (исходного) алфавита. Разделив среднюю длину полученных комбинаций на три, получим среднюю длину новых комбинаций в расчете на одну букву первоначального двоичного кода. В результате средняя длительность полученных комбинаций в расчете на одну посылку будет менее Т и, следовательно, скорость передачи информации увеличится. Это и есть тот эффект, который дает статистическое кодирование.
Поделив ранее найденную величину энтропии на новое значение средней длительности, получим более высокую производительность, приближающуюся к предельно возможной.
Кодирование по методу Хаффмена сводится к построению кодового дерева, которое и определяет вид всех кодовых комбинаций неравномерного кода.
Пример кодирования приведен в [5], задача 4.2.12.