- •1. Передача информации между двумя оконечными устройствами. Тип соединения оконечных устройств
- •2. Основные определения: информация, сообщение, система связи, сигнал, алфавит.
- •3. Обобщенная структура схемы системы связи
- •4. Источники сообщения в системах связи. Вероятностный характер источников сообщений.
- •5. Форматирование информации. Форматирование текстовых данных. Существующие стандарты.
- •6. Передача сообщений по каналу, искажения, краевые искажения, дробление
- •7. Аналоговые источники сообщений. Преобразование аналоговых сигналов в цифровые. Квантование по уровню. Ошибка квантования.
- •8. Дискретизация аналоговых сигналов по времени. Понятие о теореме Котельникова.
- •9. Преобразование аналоговых сигналов в цифровые. Дискретизация по методу «выборка-хранение». (доработать)
- •10. Сигнал, как реализация процесса. Классификация процессов.
- •11. Классификация процессов. Детерминированные процессы. Гармонические и переходные непериодические процессы.
- •12. Полигармонические и непериодические процессы их спектральные характеристики.
- •13. Определение случайного процесса. Непрерывные и дискретные случайные процессы.
- •14. Измерение случайных процессов.
- •15. Числовые характеристики случайных процессов, их инженерно-физический смысл.
- •16.Законы распределения и основные характеристики случайных процессов
- •17. Автокорреляционная функция случайного процесса. Примеры автокорр. Функций.
- •18. Взаимная корреляционная функция случайных процессов. Примеры применения корреляционных характеристик.
- •19. Усреднение по ансамблю и по времени. Эргодическое свойство случайных процессов.
- •20. Стационарность случайных процессов. Стационарность в широком и узком смыслах.
- •21. Информационные модели сигналов. Формула Хартли.
- •22. Информационные модели сигналов. Формула Шеннона.
- •23. Энтропия источника сообщений. Свойства энтропии источника дискретных сообщений.
- •24. Избыточность при передаче сообщений. Роль избыточности при передаче информации.
- •25. Математические модели сигналов. Временное и частотное представление сигналов.
- •26. Ряд Фурье по произвольной ортогональной системе функций.
- •31. Спектральные характеристики непериодического сигнала. Прямое и обратное преобразования Фурье.
- •32. Оценивание спектральной плотности с помощью дпф
- •33. Дискретное преобразование Фурье (дпф). Гармонический анализ.
- •34. Примеры ортогональных базисов. Функции Уолша.
- •35. Модуляция. Зачем она нужна
- •36. Амплитудная модуляция.Спектр ам сигнала. Примеры модуляторов.
- •37 Амплитудно-модулируемый сигнал сложной формы, его спектр.
- •38 Демодуляция ам сигнала. Работа простейшего амплитудного детектора.
- •43. Спектр колебаний с угловой модуляцией
- •44. Сравнение методов амплитудной и угловой модуляций
- •45. Двоичное представление информации. Механизм восстановления двоичных импульсов.
- •46. Спектральные характеристики случайных процессов.
- •47. Преобразование кодов.
- •48. Корректирующие коды. Ход Хемминга
- •49. Неравномерные коды. Код Хаффмана.
- •50. Неравномерные коды. Код Шеннона-Фано
- •51. Дискретизация аналоговых сигналов по времени. Понятие о теореме котельникова.
- •52. Спектр прямоугольного сиганала
- •53. Свойства энтропии источника дискретных сообщений.
14. Измерение случайных процессов.
Измерить случ. процесс – определить его статистич. хар-ки, кот. определяются по одной или нескольким реализациям и эти хар-ки отражают с-ва всего процесса. Случ. процесс, набл. за короткий промежуток времени – наз. РЕАЛИЗАЦИЕЙ. Совокупность реализаций случайного процесса называется АНСАМБЛЕМ.
К хар-кам случ. процесса можно отнести среднее значение квадрата, мат. ожидание, дисперсию, среднеквадрат. отклонение, закон распределения:
1) Среднее значение квадрата:
2) Математическое ожидание:
, - среднее значение процесса.
3) Дисперсия
Математическое ожидание и дисперсия в дискретном виде:
4) Функция распределения (и её вывод)
- функция распределения
Если предел существует, то он назыв. функцией плотности распределения или одномер. законом распределения. Она обладает теми же свойствами:
, где F(x) – оригинал.
Все статистич. хар-тики получ. путём осреднения, при этом осреднение может осущ. осреднением по ансамблю либо осреднению по времени.
Случ. процесс обладает свойством ЭРГОДИЧНОСТИ, если статистич. характеристикики, найдены осреднением по времени и по ансамблю равны. Будем исходить из гипотезы эргодичности и осреднять будем по времени.
15. Числовые характеристики случайных процессов, их инженерно-физический смысл.
1) Среднее значение квадрата:
2) Мат. ожидание:
, - среднее значение процесса.
3) Дисперсия
Мат. ожидание и дисперсия в дискретном виде:
4) Функция распределения (и её вывод)
- ф-ция распределения
Если предел сущ., то он наз. функцией плотности распределения или одномер. законом распределения. Она обладает теми же свойствами:
- , где F(x) – оригинал.
Измерить случ. процесс – определить его статистич. характеристики, которые определяются по одной или нескольким реализациям и эти хар-ки отражают св-ва всего процесса. Случ. процесс, набл. за короткий промежуток времени – наз. РЕАЛИЗАЦИЕЙ. Совокупность реализаций случ. процесса наз. АНСАМБЛЕМ.
К хар-кам случ. процесса можно отнести среднее значение квадрата, мат. ожидание, дисперсию, среднеквадрат. отклонение, закон распред-я:
Все статистич. хар-тики получ. путём осреднения, при этом осреднение может осущ. осреднением по ансамблю либо осреднению по времени.
Случ. процесс обладает с-вом ЭРГОДИЧНОСТИ, если статистич. хар-ки, найдены осреднением по времени и по ансамблю равны. Будем исходить из гипотезы эргодичности и осреднять будем по времени.
16.Законы распределения и основные характеристики случайных процессов
Сечение с.п. X(t) при любом фиксированном значении аргумента t представляет собой случайную величину, которая имеет закон распределения
F(t,x) = P{X(t) < x} (1)
Эта функция зависит от двух аргументов: во-первых, от значения t, для которого берется сечение; во вторых, от значения х, меньше которого должна быть с.в. X(t) (Рис.4.). Функция (1) называется одномерным законом распределения.
Рис.4.
Представим себе два случайных процесса с одинаковым распределением в каждом сечении, но совершенно различных по своей структуре. Первый представлен совокупностью своих реализаций на рис.5, второй – на рис.6. Первый процесс имеет плавный характер, второй – более резкий, «нервный». Для первого процесса характерна более тесная зависимость между сечениями с.п.; для второго эта зависимость затухает довольно быстро с увеличением расстояния между сечениями.
Рис.5.
Рис.6.
Очевидно, одномерный закон не может служить полной, исчерпывающей характеристикой с.п. X(t).
Одномерная функция распределения вероятностей F(x, ti) определяет вероятность того, что в момент времени ti значение случайной величины X(ti) не превысит значения x:
F(x, ti) = P{X(ti)≤x}.
Очевидно, что в диапазоне значений вероятностей от 0 до 1 функция F(x, t) является неубывающей с предельными значениями F(-,t)=0 и F(,t)=1. При известной функции F(x,t) вероятность того, что значение X(ti) в выборках будет попадать в определенный интервал значений [a, b] определяется выражением:
P{a<X(ti)≤b} = F(b, ti) – F(a, ti).