- •Содержание и классификация задач оптимального приёма дс:
- •Оптимальный приём дс в кс с детерминированной и стохастической структурой:
- •Обнаружение и различие дс:
- •Критерии оптимального приёма дс на основе Байесовского подхода к минимизации среднего риска:
- •Согласованная фильтрация финитных во времени сигналов:
- •Импульсная характеристика и передаточная частотная функция согласованного фильтра:
- •Алгоритмы работы и структурные схемы оптимальных приёмников дс в гауссовском кс с квадраторами (по критерию идеального наблюдателя):
- •Синтез когерентного демодулятора дс на фоне абгш, корреляционный демодулятор (по критерию максимума отношения правдоподобия):
Содержание и классификация задач оптимального приёма дс:
Определение параметров сигналов (амплитуда, частоты, фазы, направления прихода, поляризации). Приемник представляет собой решающее устройство, которое в соответствии с некоторым правилом А(x),(алгоритм или правило решения), определяет значение информационного параметра ai (принимает решение о значении выходного сигнала, используя входной сигнал x(t) и порог h.
Постановка задачи синтеза оптимального приемника дискретных сообщений:
Будем полагать, что сообщения на выходе источника появляются с вероятностями причём
Сообвввввщения отображаются в соответствующие им сигналы Si(t) и полностью известны на приемной стороне.
Сигналы передаются по каналу с постоянными параметрами, коэффициент передачи и время задержки в канале известны.
В канале действует аддитивный белый гауссовский шум (АБГШ) n(t)=N(m,σ),
и поэтому на выходе канала, а значит на входе приемника имеется реализация случайного процесса z(t) = Si(t) + n(t), 0 ≤ t ≤ T.
Реализации дискретизируются z(tk) = Si(tk) + n(tk) с учетом теоремы Котельникова: Δt≤1/2Fв, при этом Δt ≥ τкорр помехи, а это значит, что отсчеты z(tk) некоррелированые, а для гауссовой статистики некореллированные отсчеты являются независимыми. Значит совместная плотность вероятности этих отсчетов равна произведению плотностей вероятности отдельных гауссовых реализаций.
Сигналы Si (t) являются Т-финитными, т. е. их длительность равна Т, а значит полоса занимаемых частот ∆f =1/T.
Между приемником и передатчиком имеется жесткая синхронизация и интервал анализа Та равен длительности передаваемого сигнала Т.
Получатель не знает, какой вариант сигнала передавался, ему не известен индекс передаваемого сигнала i.
Задачи проверки гипотез, решаемые при приеме дискретных сообщений:
На выходе канала (на входе приемника) действует реализация случайного напряжения z(t) = Si(t) + n(t). Si(t) - передаваемый сигнал (сообщение); n(t) – случайный помеховый сигнал.
Условная плотность распределения вероятности принятой реализации z(t):
l [z(t)] = w[z(t)/Si] – функционал правдоподобия, - реализация напряжения z(t) вызвана наличием в нем передаваемого сообщения Si.
Если сигнал z(t) дискретизировать с интервалом 𝛥t, то реализацию можно представить вектором дискретных отсчетов z = (z1, z2 … zn), тогда условная плотность распределения вероятности принятого дискретного вектора: l (z)=w[z/si ] – функция правдоподобия.
Различение сигналов можно трактовать в терминах проверки статистических гипотез: гипотеза Нi – наличие Si -того и только Si -того сообщения в реализации z(t) или в дискретных отсчетах этой реализации z.
Пусть принимается двоичное сообщение. Приемник получает напряжение z(t). Тогда возможны две гипотезы: Основная гипотеза Н0: z(t)=S0(t)+ n(t). Альтернативная гипотеза Н1: z(t)=S1(t)+ n(t). Задача различения этих двух сигналов сводится к статистической задаче проверки гипотез: проверить основную гипотезу относительно альтернативной.
Условная плотность вероятности основной гипотезы w(z/H0 ) – функция правдоподобия гипотезы Н0 . Условная плотность вероятности альтернативной гипотезы w(z/H1) – функция правдоподобия гипотезы Н1.