- •1. Основные определения: информация, сообщение, система связи, сигнал, алфавит.
- •2. Функциональная система цифровой системы связи.
- •3. Преимущества и недостатки цифровой связи
- •4.Четырехуровневая коммуникационная система
- •5. Эталонная модель (osi): стек протоколов
- •6. Уровни модели взаимодействия открытых систем osi
- •Блочная диаграмма типичной системы цифровой связи от источника к передатчику
- •Блочная диаграмма типичной системы цифровой связи от приемника к потребителю информации
- •9. Отображение цифрового сигнала в виде аналоговой функции времени
- •10. Сигнал как реализация процесса. Классификация процессов
- •12. Полигармонические и почти периодические процессы
- •13. Определение случайного процесса
- •14. Процесс стационарный в широком смысле
- •15. Процесс стационарный в узком смысле
- •16. Случайные эргодические процессы, гауссов процесс
- •17. Процессы авторегрессии
- •18. Ковариационная и корреляционная матрицы случайного процесса, автоковариационная и автокорреляционная функции
- •19. Оценивание ковариационной и корреляционной матриц случайного процесса и автоковариационной и автокорреляционной функций
- •20. Случайные нестационарные процессы, характеристики случайных процессов
- •21. Классификация шумов в системах связи.
- •22. Определение спектральной плотности мощности. Теорема Винера-Хинчина.
- •23. Непрерывное преобразования Фурье
- •24. Финитное преобразование Фурье
- •25. Дискретное преобразование Фурье (дпф).
- •26. Свойства дпф.
- •27. Оценивание спектральной плотности с помощью дпф
- •28. Модель белого шума.
- •29. Линейные системы с постоянными параметрами.
- •Характеристики линейных систем с постоянными параметрами.
- •31. Последовательное включение систем с постоянными параметрами.
- •32. Связь спектральных плотностей входного и выходного процессов линейной системы с постоянными параметрами.
- •3 5. Узкополосные и широкополосные сигналы.
- •36. Критерии определения ширины полосы.
- •Форматирование текстовой информации в системах dcs.
- •38. Теорема о дискретном представлении. Критерий Найквиста. Инженерный критерий Найквиста.
- •Дискретизация с помощью идеальных единичных импульсов (идеальная дискретизация).
- •Естественная дискретизация.
- •41.Дискретизация по методу «выборка-хранение».
- •42.Квантование амплитуды и характеристики.
- •45.Шум квантования.
- •46.Импульсно кодовая модуляция квантованных выборок аналогового сигнала.
- •47.Кодирование источников определения.
- •48.Дискретные источники и их характеристики.
- •49.Типы дискретных источников.
- •50.Свойства кодов.
- •51. Показатели кодирования
- •52. Кодирование источников без памяти: код шеннона-фано
- •54. Кодирование источников с памятью: методы подавления нулей и групповое кодирование
- •55. Кодирование источников с памятью: методы подстановки образцов и дифференциальное сжатие
- •56. Униполярные и биполярные сигналы pcm
- •57. Сигналы рсм в кодировке nrz (nrz-l, nrz-m, nrz-s)
- •58. Кодировки nrz-ami и rz-ami
- •59. Фазовое кодирование
- •60. Кодирование модуляцией задержки
- •61. Многоуровневое кодирование рсм. Достоинства и недостатки
- •62. Искажение сигналов шумом awgn
- •63. Межсимвольная интерференция
- •64. Обобщенная схема передачи узкополосного сигнала
- •65. Основные этапы демодуляции/обнаружения
- •68. Униполярная передача двоичных сигналов
- •69. Биполярная передача двоичных сигналов
- •70. Эквивалентная модель системы dcs
- •71. Импульсы Найквиста
- •72. Компенсация искажений с помощью выравнивания
- •73. Виды выравнивания и типы эквалайзеров.
- •74. Дискретный канал без памяти
- •75. Теорема кодирования канала
- •76. Теорема о пропускной способности канала
- •Зачем нужна широкополосная модуляция?
- •78, 79. Амплитудная и частотная модуляция (ask и fsk)
- •80. Частотная манипуляция и бинарная частотная манипуляция
- •81. Бинарная фазовая манипуляция, квадратурная фазовая манипуляция
- •82. Амплитудно-фазовая манипуляция (арк)
- •83. Определение полосовой демодуляции и ее виды
- •84. Ресурс связи и способы его распределения
- •85. Сигналы, ортогональные во времени и по частоте
- •86. Уплотнение/множественный доступ с частотным разделением
- •87. Множественный доступ с временным разделением
45.Шум квантования.
При квантовании мы аппроксимируем исходный аналоговый сигнал уровнями квантования, число которых конечно. Мы не можем заранее предсказать значение неквантованных выборок. Следовательно, не можем предсказать значения ошибок квантования. По этому ошибки квантования представляются моделью случайных шумов. Мощность такого шума пропорциональна квадрату шага квантования, а так как шаг квантования обратно пропорционален количеству уровню квантования q, то мощность шума обратно пропорциональна q2.
Воздействие всех шумов (в т.ч. и шума квантования) характеризуется показателем, который называется отношением сигнал/шум или SNR (Signal – Noice Ratio).
Можно показать, что при равномерном квантовании (S/N) отношение SNR определяется формулой: То при увеличении количества уровня квантования воздействие шума квантования на полезный квантуемый сигнал уменьшается стремясь к 0.
46.Импульсно кодовая модуляция квантованных выборок аналогового сигнала.
Последним этапом форматирования аналогового сигнала является получение последовательности двоичных цифр. В результате дискретизации и квантования мы получили последовательность значений, выраженных в уровнях квантования. Преобразование этой последовательности в двоичные цифры называется ИКМ (PCM – Pulse Code Modulation).
Следует различать PCM коды и РСМ сигналы. Последовательность битов, которые нужно передать называется кодами РСМ. Эти коды нужно передать через узкополосный канал. (пара проводников), для этого следует сформировать последовательность электрических импульсов, соответствующих передаваемой последовательности битов. Эти импульсы называются сигналами РСМ.
47.Кодирование источников определения.
48.Дискретные источники и их характеристики.
Для того, чтобы задать конечный дискретный источник необходимо:
Задать алфавит
Задать вероятности для каждого из символов алфавита.
Количество информации или само-информации любого символа определяется по формуле:
Если основанием логарифма является 2, то само-информация измеряется в битах. Существует другая единица, называемая нат, если в формуле фигурирует натуральный логарифм. Среднее количество информации для символов дискретного источника есть:
Величина Н называется энтропией источника и является мерой неопределенности, которая разрешается с помощью алфавита х*. Источник уменьшает неопределенность. Н (бит/символ).
Ее значение лежит в диапазоне [0;log2(Мs)]. Когда определенность отсутствует и равна log2(Мs) при максимальной определенности, тогда все вероятности одинаковы.