- •1. Основные определения: информация, сообщение, система связи, сигнал, алфавит.
- •2. Функциональная система цифровой системы связи.
- •3. Преимущества и недостатки цифровой связи
- •4.Четырехуровневая коммуникационная система
- •5. Эталонная модель (osi): стек протоколов
- •6. Уровни модели взаимодействия открытых систем osi
- •Блочная диаграмма типичной системы цифровой связи от источника к передатчику
- •Блочная диаграмма типичной системы цифровой связи от приемника к потребителю информации
- •9. Отображение цифрового сигнала в виде аналоговой функции времени
- •10. Сигнал как реализация процесса. Классификация процессов
- •12. Полигармонические и почти периодические процессы
- •13. Определение случайного процесса
- •14. Процесс стационарный в широком смысле
- •15. Процесс стационарный в узком смысле
- •16. Случайные эргодические процессы, гауссов процесс
- •17. Процессы авторегрессии
- •18. Ковариационная и корреляционная матрицы случайного процесса, автоковариационная и автокорреляционная функции
- •19. Оценивание ковариационной и корреляционной матриц случайного процесса и автоковариационной и автокорреляционной функций
- •20. Случайные нестационарные процессы, характеристики случайных процессов
- •21. Классификация шумов в системах связи.
- •22. Определение спектральной плотности мощности. Теорема Винера-Хинчина.
- •23. Непрерывное преобразования Фурье
- •24. Финитное преобразование Фурье
- •25. Дискретное преобразование Фурье (дпф).
- •26. Свойства дпф.
- •27. Оценивание спектральной плотности с помощью дпф
- •28. Модель белого шума.
- •29. Линейные системы с постоянными параметрами.
- •Характеристики линейных систем с постоянными параметрами.
- •31. Последовательное включение систем с постоянными параметрами.
- •32. Связь спектральных плотностей входного и выходного процессов линейной системы с постоянными параметрами.
- •3 5. Узкополосные и широкополосные сигналы.
- •36. Критерии определения ширины полосы.
- •Форматирование текстовой информации в системах dcs.
- •38. Теорема о дискретном представлении. Критерий Найквиста. Инженерный критерий Найквиста.
- •Дискретизация с помощью идеальных единичных импульсов (идеальная дискретизация).
- •Естественная дискретизация.
- •41.Дискретизация по методу «выборка-хранение».
- •42.Квантование амплитуды и характеристики.
- •45.Шум квантования.
- •46.Импульсно кодовая модуляция квантованных выборок аналогового сигнала.
- •47.Кодирование источников определения.
- •48.Дискретные источники и их характеристики.
- •49.Типы дискретных источников.
- •50.Свойства кодов.
- •51. Показатели кодирования
- •52. Кодирование источников без памяти: код шеннона-фано
- •54. Кодирование источников с памятью: методы подавления нулей и групповое кодирование
- •55. Кодирование источников с памятью: методы подстановки образцов и дифференциальное сжатие
- •56. Униполярные и биполярные сигналы pcm
- •57. Сигналы рсм в кодировке nrz (nrz-l, nrz-m, nrz-s)
- •58. Кодировки nrz-ami и rz-ami
- •59. Фазовое кодирование
- •60. Кодирование модуляцией задержки
- •61. Многоуровневое кодирование рсм. Достоинства и недостатки
- •62. Искажение сигналов шумом awgn
- •63. Межсимвольная интерференция
- •64. Обобщенная схема передачи узкополосного сигнала
- •65. Основные этапы демодуляции/обнаружения
- •68. Униполярная передача двоичных сигналов
- •69. Биполярная передача двоичных сигналов
- •70. Эквивалентная модель системы dcs
- •71. Импульсы Найквиста
- •72. Компенсация искажений с помощью выравнивания
- •73. Виды выравнивания и типы эквалайзеров.
- •74. Дискретный канал без памяти
- •75. Теорема кодирования канала
- •76. Теорема о пропускной способности канала
- •Зачем нужна широкополосная модуляция?
- •78, 79. Амплитудная и частотная модуляция (ask и fsk)
- •80. Частотная манипуляция и бинарная частотная манипуляция
- •81. Бинарная фазовая манипуляция, квадратурная фазовая манипуляция
- •82. Амплитудно-фазовая манипуляция (арк)
- •83. Определение полосовой демодуляции и ее виды
- •84. Ресурс связи и способы его распределения
- •85. Сигналы, ортогональные во времени и по частоте
- •86. Уплотнение/множественный доступ с частотным разделением
- •87. Множественный доступ с временным разделением
49.Типы дискретных источников.
Дискретный источник называется источником без памяти, если все символы сообщения х (n) статистически независимы. Другими словами вероятность появления в текущий момент времени некоторого символа алфавита не зависит от того, какие символы предшествовали этому символу. Формально условия статистической независимости описывается условием: .
Вероятность совместного появления в любом сообщении символов и равна произведению вероятности появления каждого из этих символов.
Источник, символы которого не являются статистически независимыми, называется источником с памятью. Сообщение состоящее из N символов, называется N-кортежем. Статистическая зависимость символов выражается в том, что неопределенность в появлении N-го символа в N-кортежа уменьшается при увеличении количества символов, предшествующем N-му.
Наличие статистической зависимости между символами сообщения в источнике с памятью позволяет сделать вывод, что гораздо эффективнее кодировать группы символов нежели каждый символ по отдельности. Следовательно, символы исходного сообщения могут быть представлены в виде комбинации символов кода. Эти комбинации называются кодовыми словами. Таблица, устанавливающая соответствие между символами источника и кодовыми словами называется кодовым словарем.
50.Свойства кодов.
Код называется разборчивым, если все кодовые комбинации различны, т.е. каждому символу источника соответствует уникальный код.
Единственность декодирования (однозначность дешифрования) – любая кодовая последовательность отображается в строку исходных символов единственным образом.
Свобода от префикса (Prefix-free) – любое кодовое слово не является префиксом некоторого другого кодового слова.
Свободный от префикса код называется мгновенно декодируемым или моментальным. Для моментальных кодов граница текущего кодового слова определяется последним символом этого слова, а не 1-ым символом следующего слова.
51. Показатели кодирования
Различают коды с фиксированной и переменной длиной. Код с фиксир. длиной легко дешифровать. Нужно просто подсчитать кол-во бит в дешифр. слове. С др.стороны обычно символы исходного алфавита имеют разные вероятности появления. В этом случае целесообразно применять коды с переменной длиной. В этом случае часто встречающиеся символы кодируются короткими словами, а редко встречающиеся – длинными. Существует теорема помехоустойчивого кодирования: если имеется источник без памяти с энтропией Н, то любой однозначно декодированный код с алфавитом размером М дает слова с размерностью, кот. не меньше чем Lmin=Н/log2М, где М – алфавит кода (длина), Н – энтропия ист-ка. Эта теорема дает возможность определить самый минимальный код, с помощью которого полностью описывается источник и не происходит искажение инф-ии. Если исп-ся двоич. код, то длина код. слова ограничена снизу значением энтропии. Если анализир-ся код с переменной длиной, то исп-ся показатель, наз. средней длиной кодовых слов : Lср= Prob[X*m]lm ,
где lm – разрядность m-го кодового слова. Производительность декодера рассчитывается исходя из показателя Lср, но некот. отд. слова могут иметь разрядность < или > Lср. Эти несоответствия сглаживаются декодером с пом. буферизации.
Эффективность кода опр-ся : =(Lmin/Lср)*100
Избыточность кода : (Lcp - Lmin)/Lcp.