- •1. Основные определения.
- •2. Этапы обращения информации.
- •3. Понятие сигнала и его модели.
- •4. Формы представления детерминированных сигналов.
- •5. Представление сигнала в виде взвешенной суммы базисных функций. Понятие дискретного спектра сигнала и спектральной плотности.
- •6. Ортогональное представление сигналов.
- •7. Временная форма представления сигнала.
- •8. Частотная форма представления сигнала.
- •9. Спектры периодических сигналов.
- •10. Распределение энергии в спектре периодичного сигнала.
- •11. Спектры непериодических сигналов.
- •12. Распределение энергии в спектре непериодического сигнала. Равенство Парсеваля.
- •13. Соотношение между длительностью импульсов и шириной их спектра.
- •14. Спектральная плотность мощности детерминированного сигнала.
- •15. Функция автокорреляции детерминированного сигнала.
- •16. Случайный процесс как модель сигнала. Понятие ансамбля и пространства состояний. Виды случайных процессов.
- •17. Вероятностные характеристики случайного процесса.
- •18. Стационарные и эргодические случайные процессы.
- •19. Спектральное представление случайных сигналов.
- •20. Частотное представление стационарных случайных сигналов. Дискретные спектры.
- •21. Частотное представление стационарных случайных сигналов. Непрерывные спектры.
- •22. Основные свойства спектральной плотности.
- •23. Дискретизация непрерывных величин.
- •24. Квантование по времени. Теорема Котельникова.
- •25. Понятие модуляции.
- •26. Амплитудная модуляция.
- •27. Частотная модуляция.
- •28. Фазовая модуляция.
- •29. Модуляция импульсного тока.
- •30. Кодоимпульсные сигналы.
- •31. Многократная модуляция.
- •32. Количество информации в дискретных сообщениях. Энтропия дискретного источника.
- •33. Свойства энтропии.
- •34. Условия энтропии и ее свойства.
- •35. Передача информации от дискретного источника. Частное количество информации.
- •37. Частная условная энтропия. Условная энтропия источника. Апостериорная энтропия источника.
- •38. Количество информации в переданном сообщении дискретным источником.
- •39. Энтропия квантовой величины.
- •40. Количество информации в непрерывном сообщении. Априорная (безусловная) и апостериорная (условная) дифференциальные энтропии. Симметричность выражения количества информации.
- •43. Количество и скорость передачи информации при нормальном распределении сигнала и помехе (погрешности).
- •42. Количество информации, передаваемое за определенное время. Скорость передачи информации.
- •41. Количество передаваемой информации с учетом наличия аддитивной помехи.
- •44. Количество и скорость передачи информации при равномерном распределении сигнала и нормальном распределении помехи (погрешности).
- •45. Дифференциальная энтропия равномерно распределенной погрешности. Энтропийная погрешность.
- •46. Код, кодирование, кодовые сигналы.
- •47. Системы счисления.
- •48. Числовые коды.
- •49. Коды, не обнаруживающие возможных искажений.
- •50. Коды, обнаруживающие ошибки.
- •51. Информационная способность кода и избыточность.
- •52. Коды с коррекцией искажений.
14. Спектральная плотность мощности детерминированного сигнала.
Величина характеризующая распределение энергии по спектру сигнала и называемая энергетической спектральной плотностью, существует лишь для сигналов, у которых энергия за бесконечный интервал времени конечна и, следовательно, к ним применимо преобразование Фурье.
Для незатухающих во времени сигналов энергия бесконечна велика и интеграл (54) расходится. Задание спектра амплитуд невозможно. Однако средняя мощность Рср определяемая соотношением
(61)
оказывается конечной. Поэтому применяется более широкое понятие «спектральная плотность мощности». Определим ее как производную средней мощности сигнала по частоте и обозначим Рk():
(62)
Индексом k подчеркивается, что здесь рассматривается спектральная плотность мощности как характеристика детерминированной функции u(t), описывающей реализацию сигнала.
Эта характеристика сигнала менее содержательна, чем спектральная плотность амплитуд, т.к. лишена фазовой информации (см. (38)). Поэтому однозначно восстановить по ней исходную реализацию сигнала невозможно. Однако отсутствие фазовой информации позволяет применить это понятие к сигналам, у которых фаза не определена.
Для установления связи между спектральной плотностью Pk() и спектром амплитуд воспользуемся сигналом u(t), существующим на ограниченном интервале времени (-Т<t<T). К такому сигналу применимо равенство Парсеваля (56). Из сравнения (62) с правой частью (56) следует
(63)
где - спектральная плотность мощности сигнала, ограниченного во времени.
В дальнейшем будет показано, что усредняя эту характеристику по множеству реализаций, можно получить спектральную плотность мощности для большого класса случайных процессов.
15. Функция автокорреляции детерминированного сигнала.
Имеем в частотной области две характеристики: спектральная характеристика и спектральная плотность мощности. Выясним чему соответствует во временной области спектральная плотность мощности, лишенная фазовой информации: очевидно ей соответствует множество временных функций, различающихся по фазе.
Л.Я.Хинчин и Н.Винер практически одновременно нашли обратное преобразование Фурье от спектральной плотности мощности:
(64)
где
Обобщенную временную функцию r(), не содержащую фазовой информации, назовем временной автокорреляционной функцией. Она показывает степень связи значений функции u(t), разделенных интервалом времени , и может быть получена из статистической теории путем развития понятия коэффициента корреляции. Отметим, что во временной функции корреляции усреднение проводится по времени в пределах одной реализации достаточно большой продолжительности.
Справедливо и второе интегральное соотношение для пары преобразования Фурье
(65)
16. Случайный процесс как модель сигнала. Понятие ансамбля и пространства состояний. Виды случайных процессов.
Единственная то что определяемая во времени функция не может служить математической моделью сигнала при получении, передачи и преобразовании информации. Поскольку получение информации связано с устранением априорной неопределенности исходных состояний, однозначная функция времени только тогда будет нести информацию, когда она с определенной вероятностью выбрана из множества возможных функций. Поэтому в качестве моделей сигнала используется служебный процесс. Каждая выбранная детерминированная функция рассматривается как реализация этого случайного процесса.
Необходимо учитывать воздействие на полезный сигнал помех, которые по своей природе случайны. Математическая модель помехи представляется также в виде случайного процесса, параметры которого определяются экспериментально. Вероятностные свойства помехи, как правило, отличны от свойств полезного сигнала, что и лежит в основе методов их разделения.
Под случайным процессом (стохастическим) подразумевают такую случайную функцию времени U(t), значение которой в каждый момент времени случайны. Конкретный вид U(t) называют реализацией случайного процесса. Точно ее предсказать невозможно. Можно лишь определить статистические данные, характеризующие все множество конкретных реализаций, называемое ансамблем.
Основными признаками, по которым классифицируются случайные процессы, являются: пространство состояний, временной параметр и статистические зависимости между случайными величинами U(ti) в разные моменты времени ti.
Пространство состояний называют множество возможных значений случайной величины U(ti). Случайный процесс, у которого множество состояний составляет континуум, а изменение состояний возможны в любые моменты времени, называют непрерывным случайным процессом.
Если же изменения состояний допускаются лишь в конечном или счетном числе моментов времени, то говорят о непрерывной случайной последовательности.
Случайный процесс с конечным множеством состояний, которые могут изменяться в произвольные моменты времени, называют дискретным случайным процессом. Если же изменения состояний возможны только в конечном или счетном числе моментов времени, то говорят о дискретных случайных последовательностях.
Примеры реализации указанных случайных процессов представлены на рис. 3.
В настоящее время чаще имеют дело с дискретными случайными последовательностями.
Среди случайных процессов с дискретным множеством состояний нас будут интересовать такие, у которых статистические зависимости распространяются на ограниченное число k следующих друг за другом значений. Они называются обобщенными Марковскими процессами k-го порядка.