- •1. Основные определения: информация, сообщение, система связи, сигнал, алфавит.
- •2. Функциональная система цифровой системы связи.
- •3. Преимущества и недостатки цифровой связи
- •4.Четырехуровневая коммуникационная система
- •5. Эталонная модель (osi): стек протоколов
- •6. Уровни модели взаимодействия открытых систем osi
- •Блочная диаграмма типичной системы цифровой связи от источника к передатчику
- •Блочная диаграмма типичной системы цифровой связи от приемника к потребителю информации
- •9. Отображение цифрового сигнала в виде аналоговой функции времени
- •10. Сигнал как реализация процесса. Классификация процессов
- •12. Полигармонические и почти периодические процессы
- •13. Определение случайного процесса
- •14. Процесс стационарный в широком смысле
- •15. Процесс стационарный в узком смысле
- •16. Случайные эргодические процессы, гауссов процесс
- •17. Процессы авторегрессии
- •18. Ковариационная и корреляционная матрицы случайного процесса, автоковариационная и автокорреляционная функции
- •19. Оценивание ковариационной и корреляционной матриц случайного процесса и автоковариационной и автокорреляционной функций
- •20. Случайные нестационарные процессы, характеристики случайных процессов
- •21. Классификация шумов в системах связи.
- •22. Определение спектральной плотности мощности. Теорема Винера-Хинчина.
- •23. Непрерывное преобразования Фурье
- •24. Финитное преобразование Фурье
- •25. Дискретное преобразование Фурье (дпф).
- •26. Свойства дпф.
- •27. Оценивание спектральной плотности с помощью дпф
- •28. Модель белого шума.
- •29. Линейные системы с постоянными параметрами.
- •Характеристики линейных систем с постоянными параметрами.
- •31. Последовательное включение систем с постоянными параметрами.
- •32. Связь спектральных плотностей входного и выходного процессов линейной системы с постоянными параметрами.
- •3 5. Узкополосные и широкополосные сигналы.
- •36. Критерии определения ширины полосы.
- •Форматирование текстовой информации в системах dcs.
- •38. Теорема о дискретном представлении. Критерий Найквиста. Инженерный критерий Найквиста.
- •Дискретизация с помощью идеальных единичных импульсов (идеальная дискретизация).
- •Естественная дискретизация.
- •41.Дискретизация по методу «выборка-хранение».
- •42.Квантование амплитуды и характеристики.
- •45.Шум квантования.
- •46.Импульсно кодовая модуляция квантованных выборок аналогового сигнала.
- •47.Кодирование источников определения.
- •48.Дискретные источники и их характеристики.
- •49.Типы дискретных источников.
- •50.Свойства кодов.
- •51. Показатели кодирования
- •52. Кодирование источников без памяти: код шеннона-фано
- •54. Кодирование источников с памятью: методы подавления нулей и групповое кодирование
- •55. Кодирование источников с памятью: методы подстановки образцов и дифференциальное сжатие
- •56. Униполярные и биполярные сигналы pcm
- •57. Сигналы рсм в кодировке nrz (nrz-l, nrz-m, nrz-s)
- •58. Кодировки nrz-ami и rz-ami
- •59. Фазовое кодирование
- •60. Кодирование модуляцией задержки
- •61. Многоуровневое кодирование рсм. Достоинства и недостатки
- •62. Искажение сигналов шумом awgn
- •63. Межсимвольная интерференция
- •64. Обобщенная схема передачи узкополосного сигнала
- •65. Основные этапы демодуляции/обнаружения
- •68. Униполярная передача двоичных сигналов
- •69. Биполярная передача двоичных сигналов
- •70. Эквивалентная модель системы dcs
- •71. Импульсы Найквиста
- •72. Компенсация искажений с помощью выравнивания
- •73. Виды выравнивания и типы эквалайзеров.
- •74. Дискретный канал без памяти
- •75. Теорема кодирования канала
- •76. Теорема о пропускной способности канала
- •Зачем нужна широкополосная модуляция?
- •78, 79. Амплитудная и частотная модуляция (ask и fsk)
- •80. Частотная манипуляция и бинарная частотная манипуляция
- •81. Бинарная фазовая манипуляция, квадратурная фазовая манипуляция
- •82. Амплитудно-фазовая манипуляция (арк)
- •83. Определение полосовой демодуляции и ее виды
- •84. Ресурс связи и способы его распределения
- •85. Сигналы, ортогональные во времени и по частоте
- •86. Уплотнение/множественный доступ с частотным разделением
- •87. Множественный доступ с временным разделением
17. Процессы авторегрессии
Существуют модели образования случайных стационарных сигналов, в которых наиболее существенные свойства временной последовательности заключены в математико-вероятностной структуре. Наиболее простой и часто используемой моделью такого рода является модель процесса авторегрессии (модель АР), которая описывается стохастическим разностным уравнением вида
, (9)
где предполагается, что случайные величины имеют одинаковые и независимые распределения, нулевое математическое ожидание, а также общую дисперсию (т.е. являются отсчетами белого шума). Величина по-прежнему обозначает среднее (матожидание) сигнала . Следует уточнить, что процесс авторегрессии, задаваемый соотношением (9), называется процессом авторегрессии М-ого порядка.
18. Ковариационная и корреляционная матрицы случайного процесса, автоковариационная и автокорреляционная функции
Анализ процессов в большинстве случаев выполняется в предположении, что независимая повторная выборка сигнала не может быть получена. Поэтому все оценки, полученные по единственной реализации , «зависящей» от времени, предполагаются идентичными оценкам, которые можно было бы получить по ансамблю реализаций.
Из предположения о стационарности процесса, порождающего сигнал, следует, что совместное распределение вероятностей величин и одинаково для всех времен и , разделенных одним и тем же сдвигом времени . Для эквидистантных сигналов сдвиг между и обычно характеризуется разностью индексов временных точек и , которая называется задержкой или сдвигом; для наблюдений и сдвиг равен k. Ковариация между значениями и , отделенными k равными интервалами времени, называется автоковариацией с задержкой k и определяется как
. (3.1)
Очевидно, дисперсия величины равна C(0), и, поскольку она не зависит от времени (во всех точках дисперсия стационарного процесса одинакова), можно записать .
Автокорреляция со сдвигом k равна , (3.2) откуда вытекает, что и для k =1, 2, …
Отметим, что, согласно определению, автоковариации и автокорреляции могут быть заданы и для отрицательных сдвигов, причем формула (3.1) показывает, что (3.3) и, следовательно, . (3.4)
Ковариационная матрица, связанная с процессом, для наблюдений , где и , имеет вид
= =
. (3.5)
Ковариационная матрица такого вида (симметричная и с одними и теми же элементами на любой диагонали) называется автоковариационной матрицей; соответствующая корреляционная матрица называется автокорреляционной матрицей. Матрицы и являются положительно определенными (определитель и все главные миноры каждой из этих матриц положительны).
Функция C(k) от задержки k называется автоковариационной функцией соответствующего процесса. Аналогично функция от задержки k называется автокорреляционной функцией. Заметим, что автокорреляционная функция безразмерна, т. е. независима от масштаба измерения сигнала. Так как , знание автокорреляционной функции и дисперсии эквивалентно знанию автоковариационной функции . На рисунках 3.1 и 3.2 показаны правые (для неотрицательных сдвигов) половины двух различных автокорреляционных функций. Из рисунков видно, что автокорреляционные функции характеризуются тенденцией к затуханию по мере роста сдвига k. Такие автокорреляционные функции часто встречаются на практике. В дальнейшем, когда будем говорить об автокорреляционной функции, мы будем иметь в виду ее правую половину.
Положительное значение корреляции свидетельствует о положительной статистической зависимости между отсчетами ряда, разделенными интервалом , где интервал дискретизации процесса по времени. Положительное значение ( ) означает, что при превышении отсчетом математического ожидания , наиболее вероятным будет исход, при котором значение также будет больше, чем , а если , то значение будет меньше, чем , для большинства индексов n. При отрицательной корреляции ( ) разности и будут иметь в основном различные знаки.