- •1. Основные определения
- •2. Этапы обращения информации
- •3. Понятие сигнала и его модели
- •4.Формы представления детерминированных сигналов.
- •5. Представление сигнала в виде взвешенной суммы базисных функций. Понятие дискретного спектра сигнала и спектральной плотности
- •6. Ортогональное представление сигналов.
- •7.Временная форма представления сигнала
- •8.Частотная форма представления сигнала
- •9.Спектры периодических сигналов.
- •10.Распределение энергии в спектре.
- •11.Спектры непериодических сигналов.
- •12 Распределение энергии в спектре непериодического сигнала. Равенство Парсеваля
- •13.Соотношения между длительностью импульсов и шириной их спектра.
- •14,Спектральная плотность мощности детерминированного сигнала.
- •15.Функция автокорреляции детерминированного сигнала.
- •17.Вероятностные характеристики случайного процесса.
- •18. Стационарные и эргодические случайные процессы.
- •19.Спектральное представление случайных сигналов.
- •20.Частотное представление стационарных случайных сигналов.
- •21.Непрерывные спектры.
- •22. Основные свойства спектральной плотности.
- •23. Дискретизация непрерывных величин.
- •24. Модуляция
- •25. Амплитудная модуляция.
- •27. Частотная модуляция.
- •28. Модуляция по фазе.
- •29. Импульсный ток.
- •30. Кодоимпульсные сигналы.
- •31. Многократная модуляция.
- •32. Количество информации в дискретных сообщениях.
- •33. Свойство энтропии.
- •34. Условия энтропии и ее свойства.
- •35. Передача информации от дискретного источника.
- •37. Частная условная энтропия. Условная энтропия источника.
- •39. Энтропия квантовой величины
- •40. Количество информации в непрерывных сообщениях.
- •Связь между информационными и точностными характеристиками.
- •44.Тогда для равномерного распределения “u” и нормального распределения :
- •46.Код, кодирование, кодовые сигналы.
- •47.Системы счисления.
- •48.Числовые коды.
- •49.Коды не обнаруживающие возникающих искажений.
- •50.Коды обнаруживающие ошибки.
- •51.Информационная способность кода и избыточность.
- •Основная теорема Шеннона о кодировании для канала с помехами.
- •52.Коды с коррекцией искажений.
18. Стационарные и эргодические случайные процессы.
Случайный процесс называют стационарным в узком смысле, если выражения для плотностей вероятности не зависят от начала отсчета времени
(78)
где - случайная величина, отражающая значение процесса в момент времени t = ti + (- произвольное число).
Процесс U(t) принято называть стационарным в широком смысле, если выполняется условие постоянства математического ожидания и дисперсии, а, корреляционная функция не зависит от начала отсчета времени и является функцией только одного аргумента = t2 - t1,т.е.
(79)
(80)
(81)
Т.к. условие постоянства дисперсии является частным случаем требования к корреляционной функции при = 0:
то выполнение соотношений (79) и (81) достаточно, чтобы рассматривать случайный процесс U(t) как стационарный.
Случайные процессы, наблюдаемые в устойчиво работающих реальных системах, имеют конечное время корреляции. Поэтому для стационарных процессов, представляющих практический интерес, справедливо соотношение
(82)
Если для случайного процесса равенства (79), (81) не выдерживаются, но на интересующем нас интервале времени изменением указанных параметров можно пренебречь, его называют квазистационарным.
Среди стационарных случайных процессов многие удовлетворяют свойству эргодичности. Оно проявляется в том, что каждая реализация случайного процесса достаточной продолжительности несет практически полную информацию о свойствах всего ансамбля реализаций, поэтому заменяют усреднение значений по ансамблю реализаций усреднением значений одной реализации за длительный интервал времени.
Следовательно, для стационарных эргодических процессов справедливы соотношения
(83)
(84)
(85)
где u(t) – конкретная реализация случайного процесса U(t).
Для облегчения практического определения корреляционной функции в соответствии с (85) серийно выпускаются специальные вычислительные устройства – коррелометры (корреляторы).
19.Спектральное представление случайных сигналов.
Рассмотрим случайный процесс U(t), имеющий математическое ожидание mu(t). Соответствующий центрированный случайный процесс характеризуется в момент времени t1 центрированной случайной величиной :
(86)
Центрированный случайный процесс можно выразить в виде конечной или бесконечной суммы ортогональных составляющих, каждая из которых представляет собой неслучайную базисную функцию k(t) с коэффициентом Ck, являющимся случайной величиной. Имеем разложение центрированного случайного процесса :
(87)
Случ величины Ck наз-ся коэффициентами разложения. В общ случ они статистически зависимы, эта связь задается матрицей коэффициентов корреляции ||Rki||. Мат ожидания коэфф-в разложения =нулю. Неслучайные базисные функции наз-т координатными функциями.
Для конкретной реализации коэффициенты разложения являются действительными величинами и определяются:
([7])
Предположив, что , детерминированную функцию mu(t) в (86) на интервале –T<t<T также можно разложить по функциям k(t), представив в виде
, (87а)
. (87б)
Подставляя (87), (87а) в (86) для случайного процесса U(t) с отличным от нуля средним, получим
. (87в)
Выражение случайного процесса в виде (87в) позволяет существенно упростить его линейные преобразования, т.к.они сводятся к преобразованиям детерминированных функций [mu(t), ], а коэффициенты разложения, являющиеся случайными величинами, остаются неизменными.
Чтобы определить требования к координатным функциям, рассмотрим корреляционную функцию процесса , заданную разложением
.
Так как Dk – дисперсия коэффициента Ck
то
(88)
(88) проще, если коэффициенты {Ck} некоррелированы (Rkl=0 при kl, Rkl=Dk при k=l):
. (89)
В частности, при t1 = t2 = t получим дисперсию случайного процесса U(t)
(90)
Поэтому целесообразно выбирать такие координатные функции, которые обеспечивают некоррелированность случайных величин {Ck}. Разложение (87), удовлетворяющее этому условию, называют каноническим разложением.
при выбранном наборе координатных функций центрированный случайный процесс характеризуется совокупностью дисперсий коэффициентов разложения, которую можно рассматривать как обобщенный спектр случайного процесса.