Добавил:
Upload Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:
Баклан Курсач М.С..docx
Скачиваний:
104
Добавлен:
08.03.2016
Размер:
989.77 Кб
Скачать

1 Анализ источника сообщений

Источник сообщений – объект, вырабатывающий сообщения, подлежащие передаче по каналу связи. Сообщение, вырабатываемое источником сообщений, есть случайная величина, определенная на некотором вероятностном пространстве  принимающая значения в некотором измеримом пространстве  и имеющая распределение вероятностей.

Источник сообщения создает непрерывный сигнал х(t) типа случайного «квазибелого» стационарного процесса, мощность которого сосредоточена в области нижних частот. Мгновенные значения сообщения равновероятны в интервале от хmin до хmax, т.е. имеют равномерный закон распределения. В составе сигнала имеется случайная помеха интенсивности N0 = В2/Гц, так же в канале связи имеется аддитивная помеха с нормальным законом распределения интенсивности N0 = В2/Гц.

1.1 Вероятностный анализ

Функция распределения в теории вероятности– функция, которая характеризует  распределение случайной величины или случайного вектора. 

Функция распределения:

(1)

Рисунок 2 – График функции распределения

Смысл плотности распределения состоит в том, что она показывает как часто появляется случайная величина Х в некоторой окрестности точки х при повторении опытов.

Функция плотности распределения:

(2)

Рисунок 3 – График функции плотности распределения

Математическое ожидание и дисперсия сигнала.

Диапазон сигнала тогда

(3)

(4)

Рассматриваемый случайный процесс является эргодическим – усреднение какой – либо одной его реализации равно усреднению ансамбля (множества) реализаций. Для эргодического процесса математическое ожидание характеризует постоянную составляющую, а дисперсия – мощность переменной составляющей. Спектральная плотность средней мощности имеет равномерное распределение величины . Тогда X̅=0 – постоянная составляющая сигнала источника, а Px=13,65 B2 – мощность переменной составляющей сигнала.

Оценки математического ожидания и дисперсии сигнала

>>m_SIG=mean(SYG)

МО=-0,0694В,

>>std_SIG=std(SYG)

СКО=2.1250В.

Оценка корреляционной функции сигнала

>>Kx=XCOV(SYG,'biased');

>>tau=((0:N/8))*Ts;

>>plot(tau,Kx(N:N+N/8))

Корреляция (от латинского сorrelatio – соотношение, взаимосвязь) корреляционная зависимость – статистическая взаимосвязь двух или нескольких случайных величин (либо величин, которые можно с некоторой допустимой степенью точности считать таковыми). При этом изменения значений одной или нескольких из этих величин сопутствуют систематическому изменению значений другой или других величин.

Рисунок 4 – График корреляционной функции

1.2 Временной анализ

Временной анализ заключается в оценке и определении временных характеристик сигнала, для чего строим график исходного сигнала. График представлен на рисунке 5.

Рисунок 5 – Исходный сигнал

1.3 Частотный анализ

Рисунок 6 – Оценка энергетического спектра сигнала

Рисунок 7 – Оценка спектральной плотности мощности сигнала

Из рисунка 7 определяем практическую ширину спектра сигнала fmax = 8 кГц.

1.4 Информационный анализ

Для большинства реальных источников сообщения имеют разные вероятности. Например, в тексте буквы А, О, Е встречаются сравнительно часто, а Щ, Ы – редко. При разных вероятностях сообщения несут различное количество информации . При решении большинства практических задач необходимо знать среднее количество информации, приходящееся на один элемент сообщения. Это среднее количество информации при общем числе элементов сообщения источника n и числе символов алфавита 

Термин «энтропия» заимствован из термодинамики, где она характеризует среднюю неопределенность состояния системы молекул вещества. В теории информации этот термин введен в 1948 г. американским ученым К. Шенноном и далее более строго определен советскими математиками А.Я. Хинчиным и А.Н. Колмогоровым. Физически энтропия  выражает среднюю неопределенность состояния источника сообщений и является объективной информационной характеристикой источника. Энтропия всегда положительна и принимает максимальное значение при равновероятных сообщениях.

Минимальное значение энтропии 0 соответствует случаю, когда одна из вероятностей равна 1, а остальные равны нулю, т.е. имеется полная определенность [интернет].

Определим дифференциальную энтропию сигнала – источника сообщений:

(5)