- •1. Основные определения
- •2. Этапы обращения информации
- •3. Понятие сигнала и его модели
- •4.Формы представления детерминированных сигналов.
- •5. Представление сигнала в виде взвешенной суммы базисных функций. Понятие дискретного спектра сигнала и спектральной плотности
- •6. Ортогональное представление сигналов.
- •7.Временная форма представления сигнала
- •8.Частотная форма представления сигнала
- •9.Спектры периодических сигналов.
- •10.Распределение энергии в спектре.
- •11.Спектры непериодических сигналов.
- •12 Распределение энергии в спектре непериодического сигнала. Равенство Парсеваля
- •13.Соотношения между длительностью импульсов и шириной их спектра.
- •14,Спектральная плотность мощности детерминированного сигнала.
- •15.Функция автокорреляции детерминированного сигнала.
- •17.Вероятностные характеристики случайного процесса.
- •18. Стационарные и эргодические случайные процессы.
- •19.Спектральное представление случайных сигналов.
- •20.Частотное представление стационарных случайных сигналов.
- •21.Непрерывные спектры.
- •22. Основные свойства спектральной плотности.
- •23. Дискретизация непрерывных величин.
- •24. Модуляция
- •25. Амплитудная модуляция.
- •27. Частотная модуляция.
- •28. Модуляция по фазе.
- •29. Импульсный ток.
- •30. Кодоимпульсные сигналы.
- •31. Многократная модуляция.
- •32. Количество информации в дискретных сообщениях.
- •33. Свойство энтропии.
- •34. Условия энтропии и ее свойства.
- •35. Передача информации от дискретного источника.
- •37. Частная условная энтропия. Условная энтропия источника.
- •39. Энтропия квантовой величины
- •40. Количество информации в непрерывных сообщениях.
- •Связь между информационными и точностными характеристиками.
- •44.Тогда для равномерного распределения “u” и нормального распределения :
- •46.Код, кодирование, кодовые сигналы.
- •47.Системы счисления.
- •48.Числовые коды.
- •49.Коды не обнаруживающие возникающих искажений.
- •50.Коды обнаруживающие ошибки.
- •51.Информационная способность кода и избыточность.
- •Основная теорема Шеннона о кодировании для канала с помехами.
- •52.Коды с коррекцией искажений.
17.Вероятностные характеристики случайного процесса.
В соответствии с определением случайный процесс U(t) может быть описан системой N обычно зависимых случайных величин U1 = U(t1), …, Ui = U(ti), …, UN=U(tN), взятых в различные моменты времени t1, …, ti, …, tN. При N такая система эквивалентна рассматриваемому случайному процессу U(t).
И счерпывающей характеристикой доказанной системы является N – мерная плотность вероятности PN(U1, …, Ui, …, UN, t1, …, ti, …, tN). Она позволяет вычислить вероятность PN реализации, значения которой в моменты времени t1, ti, tN будут находиться соответственно в интервалах (u1, u1 + u1),…, (ui, ui + ui), …,(uN, uN +uN), где ui(i=1, N)– значение, принимаемое случайной величиной Ui (рис. 13).
Если ui выбираем достаточно малыми, то справедливо соотношение
Экспериментальное получение величины крайне сложно, а последующее использование результатов наталкивается на существенные математические трудности.
На практике обычно ограничиваются одно- или двумерной плотностью вероятности.
Одномерная плотность вероятности случайного процесса U(t) характеризует распределение одной случайной величины U1 взятой в произвольный момент времени t1. В ней не находит отражения зависимость случайных величин в различные моменты времени.
Двумерная плотность вероятности позволяет определить вероятность совместной реализации любых двух значений случайных величин в произвольные моменты времени t1 и t2 и, следовательно, оценить динамику развития процесса. Одномерную плотность вероятности случайного процесса U(t) можно получить из двумерной плотности
(67)
Наиболее распространены моменты функции первых двух порядков: математическое ожидание, дисперсия и корреляционная функция.
Математическим ожиданием случайного процесса U(t) называют неслучайную функцию времени mu(t1), которая при любом аргументе ti равна среднему значению случайной величины U(t1) по всему множеству возможных реализаций:
(68)
Степень разброса случайных значений процесса U(t1) от своего среднего значения mu(t1) для каждого t1 характеризуется дисперсией DU(t1):
где U(t1)= U(t1) - mu(t1) – центрированная случайная величина
(70)
где - среднеквадратическое отклонение.
Случайные процессы могут иметь одинаковые математические ожидания и дисперсии (рис. 14, а, б), однако резко различаться по быстроте изменения своих значений во времени.
Для оценки статистической зависимости мгновенных значений процесса u(t) в произвольные моменты времени t1 и t2 Ru (t1, t2), называемая автокорреляционной или просто корреляционной функцией.
При конкретных аргументах t1 и t2 она равна корреляционному моменту значений процесса U(t1) и U(t2):
(71)
Через двумерную плотность вероятности выражение (71) представляется в виде
(72)
В силу симметричности этой формулы относительно аргументов справедливо равенство
(73)
Для сравнения различных случайных процессов вместо корреляционной функции удобно пользоваться нормированной функцией автокорреляции:
(74)
При произвольном t1 = t2 автокорреляционная функция вырождается в дисперсию
(75)
а нормированная функция автокорреляции равна единице
(76)
т.е. дисперсия случайного процесса является частным значением автокорреляционной функции.
Аналогично устанавливается мера связи между двумя случайными процессами u(t) и U(t). Она оказывается функцией взаимной корреляции