- •Н.Н. Куцый теория информации
- •1. О понятии "информация"
- •2. Этапы обращения информации
- •3. Информационные системы
- •4. Система передачи информации: основные понятия и определения
- •5. Уровни проблем передачи информации
- •6. Теория информации
- •7. Понятия сигнала и его модели
- •8. Формы представления детерминированных сигналов
- •9. Ортогональные представления сигналов
- •10. Временная форма представления сигнала
- •11. Частотная форма представления сигнала. Спектры периодических сигналов
- •12. Распределение энергии в спектре периодического сигнала
- •13. Частотная форма представления сигнала. Спектры непериодических сигналов
- •14. Распределение энергии в спектре непериодического сигнала
- •15.Соотношения между длительностью импульсов и шириной их спектра
- •16.Спектральная плотность мощности детерминированного сигнала
- •17.Функция автокорреляции детерминированного сигнала
- •18.Случайный процесс как модель сигнала
- •19.Стационарные и эргодические процессы
- •20.Спектральное представление случайных сигналов
- •21.Частотное представление стационарных случайных процессов (дискретный спектр)
- •22.Частотное представление стационарных случайных сигналов. Непрерывные спектры
- •23.Основные свойства спектральной плотности
- •24.Преимущества цифровой формы представления сигналов
- •25.Общая постановка задачи дискретизации
- •26.Способы восстановления непрерывного сигнала
- •27.Критерии качества восстановления
- •28.Методы дискретизации посредством выборок
- •29.Равномерная дискретизация. Теорема котельникова
- •30.Теоретические и практические аспекты использования теоремы котельникова
- •31.Дискретизация по критерию наибольшего отклонения
- •32.Адаптивная дискретизация
- •33.Квантование сигнала
- •34.Квантование сигналов при наличии помех
- •35.Геометрическая форма представления сигналов
- •36.Энтропия как мера неопределенности выбора
- •37.Свойства энтропии
- •38.Условная энтропия и её свойства
- •39.Энтропия непрерывного источника информации (дифференциальная энтропия)
- •40.Свойства дифференциальной энтропии
- •41.Количество информации как мера снятой неопределенности
- •42.Эпсилон-энтропия случайной величины
- •43.Информационные характеристики источника сообщений и канала связи. Основные понятия и определения
- •44.Информационные характеристики источника дискретных сообщений
- •45.Информационные характеристики дискретных каналов связи
- •46.Информационные характеристики источника непрерывных сообщений
- •47.Информационные характеристики непрерывных каналов связи
21.Частотное представление стационарных случайных процессов (дискретный спектр)
Корреляционную функцию (рис. ) стационарного случайного процесса, заданного на конечном интервале времени можно разложить в ряд Фурье по формуле
условно считая её периодически продолжающейся с периодом (при
,
где
Рис.
Учитывая, что является четной функцией, имеем
Положив находим
что согласно (20.7), т.е.
представляет собой каноническое разложение корреляционной функции. По нему, как было указано ранее, получаем каноническое разложение случайного процесса
причем
Выражение (21.5) записано для случайного процесса с нулевой постоянной составляющей, что характерно для многих реальных сигналов. В общем случае в правую часть этого выражения необходимо добавить постоянную величину, которая соответствует математическому ожиданию случайного процесса Корреляционная функция при этом не изменяется.
Очевидно, что при попарном объединении экспоненциальных составляющих с одинаковыми положительными и отрицательными индексами каноническое разложение (21.5) приводится к тригонометрической форме.
Таким образом, стационарный случайный процесс на ограниченном интервале времени можно представить совокупностью гармонических составляющих различных частот с амплитудами, которые являются некоррелированными случайными величинами, математические ожидания которых равны нулю
где
На спектральной диаграмме такого процесса каждой гармонике ставится в соответствие вертикальный отрезок, длина которого пропорциональна её амплитуде, а расположение на оси абсцисс отвечает частоте (Рис. ). Чтобы получить описание стационарного случайного процесса в точном смысле, т.е. справедливое для любого момента времени на бесконечном интервале необходимо перейти к интегральному каноническому разложению.
22.Частотное представление стационарных случайных сигналов. Непрерывные спектры
Интегральное каноническое разложение для корреляционной функции получим из формулы (21.1) путем предельного перехода при . Приведем эту формулу
.
Увеличение интервала времени, на котором наблюдается случайный процесс, сопровождается уменьшением значений дисперсий, что следует из (21.2), приведем эту формулу
,
а также сокращением расстояния между спектральными линиями, поскольку
.
При достаточно большом, но конечном можно записать выражение для средней плотности распределение дисперсии по частоте
,
где средняя плотность дисперсии на участке, прилегающем к частоте .
Теперь можно преобразовать формулы (21.4) и (22.2) к виду
.
Переходя к пределу при получаем
где
.
Так как величина является не только дисперсией коэффициента разложения корреляционной функции , но и дисперсией коэффициента разложения случайного процесса , то величина , полученная в результате предельного перехода при , представляет собой дисперсию, которая приходится на спектральные составляющие стационарного случайного процесса, занимающие бесконечно малый интервал частот . Функцию , характеризующую распределение дисперсии случайного процесса его частотам, называют спектральной плотностью стационарного случайного процесса .
Выражение для интегрального канонического разложения корреляционной функции найдем, положив в формуле (22.3)
Введем обозначения
и повторим процедуру предельного перехода при для соотношения (21.5), получим каноническое разложение стационарной случайной функции
где дисперсией случайной функции является функция .
Поскольку понятие спектральной плотности стационарного случайного процесса играет большую роль при исследовании преобразования сигналов линейными системами, уточним её свойства и физический смысл.