Добавил:
Upload Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:
ТЭС.doc
Скачиваний:
53
Добавлен:
22.09.2019
Размер:
1.64 Mб
Скачать

1) Случайные сигналы и шумы. Функция плотности распределения. Нормальный случайный процесс. Одномерный и двумерный случаи.

Сначала рассмотрим свойства сигнала в некоторый заданный момент времени t=t1. В этот момент времени сигнал x(t1) принимает случайное значение. Такие значения можно описать только вероятностными характеристиками. В частности, можно говорить о вероятности попадания x(t1) в какой-либо конечный интервал x1<x<x2. Вероятность такого события определяется следующим образом.

(3.20)

где p(x) – есть функция плотности вероятности.

При любом непрерывном распределении вероятностей должно выполняться условие

(3.21)

Если сигнал принимает дискретные значения, то для каждого значения сигнала существует вероятность Рi. При этом .

Для практических применений наибольшее значение имеют следующие статистические характеристики:

среднее значение

(3.22)

Средний квадрат

(3.23)

Дисперсия

(3.24)

Наиболее часто мы встречаемся со случайными сигналами, для которых функция плотности вероятности является гауссовой функцией.

(3.25)

Такой случайный сигнал мы часто называем нормальным случайным процессом. Здесь <x> - среднее значение, - дисперсия, а - среднеквадратическое отклонение.

На основе функции р(x) можно найти относительное время пребывания величины сигнала в определенном интервале уровней, отношение максимальных значений к среднеквадратическому уровню (пик фактор) и ряд других важных для практики параметров случайного сигнала. Допустим, что <x>=0. Найдем вероятность того, что сигнал будет принимать значения в интервале от а до b.

(3.26)

где функция называется интеграл вероятности. В любом математическом справочнике имеются таблицы этой функции.

Если a=b, то формула (3.26) упрощается и принимает вид

(3.27)

Полагая , найдем вероятность пребывания сигнала в интервалах 2, 4, 6. Результаты вычислений приведены в таблице.

Интервал значений

Вероятность пребывания в интервале

Вероятность пребывания вне интервала

(-, )

(-2, 2)

(-3, 3)

0,6826

0,9544

0,9973

0,317

0,046

0,003

Отношение времени пребывания сигнала в данном интервале к общему достаточно большому времени наблюдения можно трактовать как вероятность пребывания в этом интервале.

Одномерная плотность вероятности недостаточна для полного описания случайного сигнала. Более полной характеристикой является двумерная плотность вероятности p(x1,x2), позволяющая учитывать статистическую связь значений сигнала в два момента времени t1 и t2. Задание двумерной функции плотности вероятности позволяет ввести корреляционную функцию случайного сигнала в виде

(3.33)

Во многих случаях на практике достаточно рассматривать стационарные случайные сигналы. В этом случае среднее, средний квадрат и дисперсия не зависят от времени, а функция корреляции зависит только от разности времен t1 и t2.

Далее на практике предполагается, что стационарные случайные сигналы являются эргодическими. Это значит, что средние статистические характеристики, полученные путем усреднения по множеству реализаций, совпадают со средними величинами, полученными путем усреднения по времени одной реализации.

(3.34)

(3.35)

(3.36)

При =0 получаем, что

(3.37)

Это есть полная средняя мощность случайного сигнала.

Корреляционная функция центрированного случайного сигнала равна

. Если , то в силу ослабления статистической зависимости это величина стремится к нулю. Поэтому . Теперь из (3.32) можно получить следующий результат.

(3.38)

Для эргодических процессов дисперсия равна разности между средней мощностью процесса и мощностью постоянной составляющей.

В силу стационарности, т.е. независимости функции распределения от начала отсчета времени, корреляционная функция является четной.

(3.39)

Так как , то

(3.40)

Таким образом, любое значение корреляционной функции стационарного случайного процесса не может превышать значения этой функции при =0.

Коэффициентом корреляции стационарного случайного процесса называется отношение корреляционной функции центрированного случайного процесса к величине дисперсии.

(3.41)

Если среднее значение равно нулю, то коэффициент корреляции равен

(3.42)

Коэффициент корреляции обладает теми же свойствами, что и корреляционная функция. Он является четной функцией, максимальное значение , при любом , причем при . Всегда можно указать такую величину 0, что при >0 абсолютная величина коэффициента корреляции остается меньше заданной. Величину 0 называют временем корреляции. Иногда время корреляции определяют так.

(3.43)

В качестве примера рассмотрим нормальный закон распределения двух значений сигнала в два момента времени t и t+.

(3.44)

Эта функция имеет максимальное значение при . Оно равно

(3.45)

Плотность вероятности сохраняет постоянное значение вдоль эллипсов, являющихся горизонтальными сечениями поверхности (3.44). Уравнения семейства эллипсов равных плотностей вероятности имеет вид.

(3.46)

При =0 эллипс вырождается в точку , а по мере увеличения  секущая горизонтальная плоскость опускается все ниже и соответственно уменьшается значение плотности вероятности.

Вероятность того, что точка плоскости со случайными координатами окажется внутри эллипсы с фиксированным параметром  получается путем интегрирования функции (3.44) по области плоскости, ограниченной эллипсом, и равна

(3.47)

При эллипсы равных вероятностей переходят в окружности радиуса . При и из (3.47) получаем, что

(3.48)

Плотности вероятности, соответствующая интегральной функции (3.48), равна

(3.49)

Функция плотности вероятности (3.49) называется релеевской.

Энергетический спектр стационарного случайного процесса.

В курсе статистической радиофизики этот вопрос рассматривается подробно. Энергетический спектр G() и корреляционная функция стационарного случайного процесса связаны друг с другом парой преобразования Фурье (теорема Винера-Хинчина)

(3.51)

Доказательство можно провести следующим образом. Формально случайный процесс можно представить в виде интеграла Фурье.

(3.52)

(3.53)

Теперь найдем функцию корреляции в виде

(3.54)

Соседние файлы в предмете [НЕСОРТИРОВАННОЕ]