Добавил:
Upload Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:

Nugmanov

.pdf
Скачиваний:
10
Добавлен:
10.02.2015
Размер:
1.6 Mб
Скачать

2.7.4. Марковские цепи

Положим, случайный процесс ξ(t) в дискретные моменты времени t 0 , t1, t 2 , t3 , может принимать дискретные значения x j из

некоторого конечного множества X с числом элементов, равным K . Припишем номер каждому состоянию x j j. Состояние x j в момент

t 0 будем считать начальным состоянием процесса, описываемое

распределением

вероятностей

P(ξ(t 0 ) j),

j 1, 2, , N .

Условные

вероятности (вероятности перехода)

 

 

 

 

P(ξ(t m n ) k / ξ(t m ) j) π jk ( n)

(2.62)

показывают вероятность перехода из

состояния x j j

в момент

времени t m

в состояние

x k k

за

n шагов

( n 1,2, ,

j, k 1, 2, , N). Если вероятности перехода (2.62) не зависит от момента времени t m , а зависит только от n ,то такая марковская цепь называется однородной. Вероятности перехода однородной цепи Маркова образуют матрицу π(n) :

 

π

 

(n)

π

 

(n)

 

π

 

(n)

 

 

11

 

 

 

12

 

 

 

 

1N

 

 

π

21

(n)

π

22

 

(n)

π

2N

(n)

π(n)

 

 

 

 

 

 

 

 

.

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

π

N1

(n)

π

N2

(n)

 

π

NN

(n)

 

 

 

 

 

 

 

 

Вероятности перехода удовлетворяют условию нормировки

N

π jk (n) 1.

k 1

Для условных вероятностей (2.62) справедливо уравнение

Маркова

N

 

 

π jk (n m) π j i (n) πi k (m) ,

n 0, m 0 ,

(2.63)

i 1

 

 

или в матричной форме

 

 

π(n m) π(n) π(m) ,

(2.64)

которое называется также уравнением Колмогорова-Чепмена.

73

Уравнение Маркова позволяет вычислить условные вероятности перехода π jk (n m) в состояния ( j, k) 0 j, k N за n m испытаний.

Вероятность того, что случайный процесс будет находиться в состоянии k через m n испытаний равна

N

 

 

 

 

πk (m n) πi (m) πik (n) ,

n 0, m 0 ,

(2.65)

i 1

 

 

 

 

которое также называется уравнением Маркова [11].

 

В частности, если m 0, получим

 

 

 

P(ξ(t n ) k) πk (n)

 

 

N

 

 

 

 

πi (0) πik (n) ,

k 1, 2, , N,

n 0,

(2.66)

i 1

 

 

 

 

т.е. зная распределение

вероятности πi (0) P(ξ(t 0 ) i),

i 1, 2, , N состояния случайного процесса в момент времени t 0 и вероятности перехода πi j (n) , можно найти распределение

вероятности состояния случайного процесса в момент времени t n . Рассмотрим более подробно (2.64). Положим m 1, n 1, 2, .

Тогда имеем

π(2) π(1) π(1) π2(1) ; π(3) π(2) π(1) π3(1) ;

Продолжая эту процедуру, определим для произвольного n матрицу вероятности переходов за n испытаний как степень матрицы вероятности переходов за одно испытание

π(n) πn (1) .

(2.67)

Перепишем формулу (2.66), используя (2.67) в матричной форме

π(n) πT (0) πn (1) ,

где πT (0) - транспонированный вектор распределения вероятности состояния случайного процесса в момент времени t 0 .

Если за конечное число n шагов процесс из состояния x i может попасть в состояние x k с вероятностью π jk ( n) 0, то состояние x k

достижимо из состояния x i .

74

Два состояния x i и x k называются сообщающимися, если они достижимы друг из друга. Если два состояния не сообщаются, то либо π jk ( n) 0, либо πkk ( n) 0, либо оба условия выполняются

одновременно [3].

Исходя из этих определений, все состояния можно разбить на классы эквивалентности по принадлежности к сообщающимся состояниям. Например, пусть процесс может находиться в пяти состояниях, и матрица переходных вероятностей имеет вид

 

0.3

0.7

0

0

0

 

 

 

 

 

 

0.6

0.4

0

0

0

 

 

 

 

 

 

 

 

π

0

 

π 0

0

0

1

0

 

 

1

 

.

 

 

 

 

 

 

 

 

0

π2

 

 

 

 

 

 

 

 

 

0

0

0.5

0

0.5

 

 

 

 

 

 

0

0

0

1

0

 

 

 

 

 

 

 

 

 

 

 

Матрица π распадается на два класса состояний: {1, 2} и {3, 4, 5}.Внутри класса состояния сообщающиеся, но классы между собой не сообщаются. В зависимости от реализации начального состояния переходные вероятности случайного процесса описываются либо подматрицей π1, либо подматрицей π2 .

Цепь Маркова называется возвратной, если случайный процесс, выходящий из некоторого состояния x i , с вероятностью 1 возвращается в это же состояние x i когда-нибудь. В противном случае цепь называется невозвратной [4].

Множество возвратных сообщающихся состояний называется эргодическим. Если цепь состоит из единственного эргодического множества, она называется эргодической. При увеличении числа шагов n большего, чем n 0 , может случиться, что переходные

вероятности не будут зависеть от начального состояния, т.е.

 

 

π

 

 

 

 

 

π

 

1

 

N

 

 

 

 

 

πik (n n

 

2

π k 1.

0 ) πk

 

 

,

 

 

 

 

k 1

 

 

π

 

 

 

 

 

 

 

N

 

75

Цепь, удовлетворяющая этим условиям, называется регулярной эргодической цепью или стационарной цепью.

Распределение πk , k 1, 2, , N находится как решение системы линейных уравнений [3]

N

 

πk i ik ,

k 1, 2, , N

i 1

 

для некоторого n n0 .

Полученное распределение вероятности πk , k 1, 2, , K

говорит о том, что распределение не зависит от начальных условий и исследуемая система переходит в стационарный режим

Если в матрице переходных вероятностей через n шагов содержится элемент, удовлетворяющий условию πik (n) δik , где δik - символ Кронекера, то состояние x i называется поглощающим.

Марковские процессы используются при решении практических задач, таких как, обнаружение сигналов, исследовании модели процесса рождения и гибели, в теории очередей, теории массового обслуживания.

2.7.5 Процесс Пуассона. Дробовой эффект

Под дробовым эффектом понимают «небольшое беспорядочное отклонение тока электровакуумных приборов и полупроводниковых приборов от среднего значения, вызванное неравномерностью электронной эмиссии или инжекцией носителей заряда в полупроводниковых приборах» [12].Предполагается, что демпферный (депрессия) эффект отсутствует. Рассмотрим дробовой эффект в электронных лампах[6]. Положим, T - время наблюдения, разделим интервал наблюдения на N интервалов длиной τ T / N . Число N выберем таким большим, что вероятность вылета более одного электрона с катода была бы такой малой величиной, которой можно пренебречь. Тогда за время с катода вылетает один электрон с вероятностью p и не вылетает с вероятностью q 1 p . Положим, за время T с катода вылетело n электронов. Тогда величина тока в

76

единицу времени равна IT

n e

, где e - заряд электрона. ( e 1.6 10-19

T

 

 

 

 

 

 

 

 

 

 

 

 

 

К). Среднее значение тока равно

 

 

 

 

 

 

 

 

Iср

M(IT )

M(n) e

 

p N e

n1 e

(2.68)

 

 

 

 

 

 

 

 

 

 

 

 

 

T

 

 

T

 

Величина

n1

 

p N

- среднее число электронов,

вылетающих с

 

 

 

 

 

 

T

 

 

 

 

 

катода в единицу времени. Из этого соотношения получим

p

n1 N

 

n1 τ . Как видим,

с уменьшением

уменьшается и

T

 

 

 

 

 

 

 

 

 

 

 

 

вероятность вылета электрона.

 

 

 

 

 

Интенсивность флюктуаций тока (дисперсия тока) равна

D(I

T

)

D(n) e2

 

p q N e2

 

e2 n1

(1

n1 T

)

T2

T2

 

 

 

 

 

 

T

 

N

 

 

 

 

 

 

Сувеличением числа разбиений N ( N ) дисперсия стремится

квеличине

D(I

 

)

e2 n

1

 

 

e Iср

(2 69)

T

 

 

 

 

 

 

 

T

 

 

T

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

Введем относительное квадратичное отклонение

 

 

 

D(IT )

 

 

 

 

e

 

(2.70)

 

M(I

T

) 2

 

T Iср

 

 

 

 

 

 

 

 

 

 

 

 

 

 

Из выражений (2.69) и (2.70) видно, что с увеличением времени наблюдения T дисперсия (флюктуации) и относительное квадратичное отклонение уменьшаются. За время T среднее число электронов, вылетевших с катода, равно n n1 T и будем считать это число электронов постоянным, не зависящим от N , т.е. с ростом N величина n не меняется. Тогда вероятность вылета одного электрона

в каждом временном интервале τ будет равна p1 Nn . Определим

вероятность PN (n) вылета n электронов во всех N интервалах:

PN (n) CnN p1n (1 p1)N n

 

N (N 1) (N (n 1))

n n

 

 

 

 

 

 

 

n!

N

 

 

n N n

 

1

 

 

 

 

 

N

 

77

 

n n

 

N (N 1) (N (n 1))

 

n N n

 

 

 

 

1

 

 

 

 

Nn

 

 

n!

 

 

 

N

 

 

n n

 

 

1

 

 

n 1

 

n N

 

 

n

n

 

1 1

 

1

 

1

 

 

1

 

.

 

 

 

 

 

 

n!

 

 

N

 

 

N

 

N

 

 

N

 

Определим

вероятность

 

PN (n)

при

 

N .

Тогда, используя

замену k N / n , имеем

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

n

n

 

 

N

 

 

n

n

 

 

 

 

1

k n

 

n

n

 

 

 

 

 

n

 

 

 

 

 

 

 

 

 

 

 

n .

P(n)

 

 

 

lim 1

 

 

 

 

 

 

lim

1

 

 

 

 

 

 

 

e

 

 

 

 

 

 

 

 

 

 

 

 

 

n! N

N

 

 

 

 

 

 

 

 

k

 

n!

 

 

 

 

 

n! k

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

Таким образом, если известно среднее количество электронов n , вылетевших с катода за время T , то вероятность вылета n электронов

за время T подчинено закону Пуассона

 

P(n)

n n

e n

(2.71)

n!

 

 

 

Из вывода формулы (2.71) видно, что закон Пуассона применим к процессам, для которых вероятность появления интересующего события близка к нулю или единице и известно среднее количество событий n за время наблюдения T . Характерной особенностью закона Пуассона является равенство математического ожидания числа событий и дисперсии числа событий. Действительно,

 

n

n

 

 

 

 

 

n

n 1

 

M(n) n

 

e n n e

n

 

 

n e n en n ,

n!

(n 1)!

n 0

 

 

 

n 1

 

 

 

 

 

 

 

 

 

 

 

 

 

 

n

n

 

 

 

 

 

 

M(n 2 ) n 2

 

e n

n (1 n),

n!

 

 

 

n 0

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

D(n) M(n 2 ) (M(n))2

n .

3. Преобразование случайных процессов в линейных инерционных цепях

Радиотехнические цепи можно разделить на линейные и нелинейные цепи, которые в свою очередь подразделяются на инерционные и неинерционные. Работа цепи может быть описана некоторым оператором. Оператор L , преобразующий входной

78

процесс x(t) в выходной процесс y(t) , называется линейным, если выполняется следующее условие

L(αx1(t) βx 2 (t)) α L(αx1(t)) β L(x 2 (t))

где α и β - константы.

Примерами линейных операторов являются дифференцирование, интегрирование, суммирования и т.д.

Если значение сигнала на выходе цепи в момент времени t определяется только лишь значением входного сигнала в тот же момент времени t , такая цепь называется неинерционной или системой без памяти. Если же значение сигнала на выходе цепи в момент времени t определяется значением входного сигнала в момент времени t и реакцией цепи на сигналы, поданные в более ранние моменты времени, такая цепь называется инерционной или системой с памятью. Инерционность цепи характеризуется постоянной времени цепи.

Анализ радиотехнических цепей с точки зрения прохождения случайных процессов заключается в определении вероятностных характеристик на выходе цепи, если известны соответствующие характеристики на входе цепи и описание самой цепи.

Наиболее сложными для анализа являются нелинейные инерционные цепи. Для них нет общих методов анализа. В каждом частном случае нелинейного преобразования применяют тот метод, который позволяет решить задачу.

При анализе нелинейных неинерционных цепей, если не удается найти обратное преобразование, часто применяют кусочно-линейную аппроксимацию функции, описывающей работу цепи. Затем рассчитывают характеристики выходного сигнала на отдельных интервалах аппроксимации.

Определение функции распределения вероятности или плотности распределения вероятности при анализе линейных инерционных цепей довольно трудная задача. Поэтому ограничимся расчетами числовых характеристик на выходе линейной инерционной цепи. При этом применяются или аппарат дифференциальных уравнений, или импульсные характеристики, или передаточные функции (метод частотных характеристик).

Аппарат дифференциальных уравнений используется, когда анализируют как динамический (нестационарный) режим работы цепи, так и установившийся (стационарный) режим, начальные условия – произвольные.

79

Импульсными характеристиками удобно пользоваться, когда анализируют как динамический, так и установившийся режимы, но

при нулевых начальных условиях.

 

 

 

 

Передаточные

функции

используются

при

анализе

 

 

 

 

установившегося (стационарного) режима

(t)

d

 

(t)

работы цепи.

 

 

 

 

 

 

 

Применение

дифференциальных

 

dt

 

 

уравнений. Пусть

исследуемая

цепь

 

 

 

 

описывается

 

известным

 

Рис. 3.1

 

 

 

 

дифференциальным

уравнением

с

 

 

 

 

постоянными коэффициентами,

а на вход

цепи подается случайный сигнал ξ(t) , (Рис.3.1). Тогда входной сигнал и выходной сигналы η(t) связаны соотношением

 

 

k

d jξ(t)

 

 

 

m

di η(t)

 

 

 

 

 

a 0 ξ(t) a i

b0

η(t) bi

 

 

 

 

(3.2)

 

dt j

dti

 

 

 

 

 

 

 

j 1

 

 

 

 

i 1

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

с начальными условиями

 

 

 

 

 

 

 

 

η(t

0

) C

0

,

dη(t

0 )

 

C , ,

dm 1η(t

0 )

C

m 1

.

 

 

 

 

 

 

 

 

 

 

dt

 

 

1

 

dt m

1

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

Предполагается, что условия дифференцируемости и интегрируемости случайных процессов выполнены. Применим оператор математического ожидания к обеим частям равенства (3.2)

 

 

k

d jMξ(t)

 

m

di Mη(t)

 

a 0 Mξ(t) a i

b0 η(t) bi

.

 

dt j

 

 

 

j 1

 

 

i 1

dti

 

 

 

 

 

 

 

 

 

 

R

 

 

 

 

C

 

 

 

 

 

 

 

 

 

 

 

 

 

(t)

 

 

 

 

(t)

(t)

 

 

 

 

(t)

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

C

 

 

R

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

Рис. 3.2 В результате получили обыкновенное дифференциальное

уравнение с постоянными коэффициентами относительно Mη(t) . Рассмотрим примеры: прохождение случайного процесса ξ(t)

через интегрирующую и дифференцирующую цепи, (Рис.3.2).

80

Дифференциальные уравнения, описывающие интегрирующую и дифференцирующую цепи, соответственно имеют вид

1

ξ(t)

dη(t)

 

1

η(t), η(0) 0

,

(3.3)

 

 

 

 

 

R С

 

 

 

dt

 

 

RC

 

 

 

dξ(t)

 

dη(t)

 

1

 

η(t), η(0) 0 .

 

 

 

 

 

 

 

 

 

dt

 

 

dt

RC

 

 

 

Рассмотрим более подробно интегрирующую цепь. Решение уравнения (3.3) имеет вид

t

 

 

η(t) α e α t ξ(x) eα x dx , где

α 1/(RС).

(3.4)

0

 

 

Положим, M(ξ(t)) mξ . Вычислим математическое ожидание:

t

 

M(η(t)) α e α t M(ξ(x)) eα x dx mξ (1 e α t )

(3.5)

0

Как видно из (3.5), математическое ожидание случайного процесса η(t) зависит от времени, т.е. процесс на выходе интегрирующей цепи

– нестационарный даже если процесс на входе – стационарный. Но если время наблюдения t намного больше постоянной времени цепи

τ R C , то величиной

e α t можно пренебречь

и, в результате,

получим

 

 

 

M(η(t)) M(ξ(t)) mξ .

(3.6)

Вычислим корреляционную функцию процесса η(t): Bη (t1, t 2 ) M(η(t1), η(t 2 ))

t1 t2

α2 e α(t1 t2 ) M(ξ(x1)ξ(x 2 )) eα(x1 x2 )dx1 dx 2 .

0 0

Если процесс ξ(t) - стационарный, то

B (t1, t 2 )

t1 t2

2 e (t1 t2 ) B(x 2 x1 ) e (x1 x2 )dx1 dx 2 .

0 0

Если процесс ξ(t) - белый шум с нулевым математическим ожиданием, то

81

x2

t2

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

t1

 

 

 

 

 

 

 

 

 

 

 

Bη (t1, t 2 )

N0 α2

 

α (t

t )

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

e

1

2

 

 

 

 

 

x1

 

 

 

 

 

 

 

 

t1 t2

 

 

 

 

 

2

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

t1

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

δ(x 2 x1) eα (x1 x2 )dx1 dx 2 .

 

 

Рис. 3.3

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

0 0

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

При

 

 

вычислении

двойного

 

интеграла

необходимо

 

 

учитывать

 

 

 

свойства

 

 

δ -функции и области

интегрирования (0, t1) , (0, t 2 ) , которые могут не совпадать.

 

 

1)

 

Положим, t1 t 2 ,

 

(Рис.3.3)

 

Так

как

0 x1

t1

t 2 ,

проинтегрируем (3.6) по t2 , а затем по t1:

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

t

 

 

 

t

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

B (t1, t2 )

N

0 α2

e α (t1 t2 ) 1 eα x1 2 δ(x 2 x1) eα x2 dx 2 dx1

 

 

2

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

0

 

 

0

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

t

 

 

 

 

 

 

 

 

 

 

 

 

 

e α (t1 t2 ) e2α t1 1 .

 

 

N0 α2

e α (t1 t2 ) 1 e2α x1 dx1

 

N0 α2

 

 

2

 

4 α

 

 

 

 

 

 

 

 

 

 

 

 

0

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

Введем переменную τ t 2 t1 и заменим t 2

t1 τ. Тогда

 

 

 

B

η

(t

1

, t

1

τ)

α N0

e α τ

1 e 2α t1 .

 

 

 

 

 

 

(3.7а)

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

4

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

2)

Положим,

t 2 t1,

 

τ 0

(Рис.3.4). Используя предыдущую

 

 

 

 

 

 

 

 

 

 

 

 

методику вычислений, получим

 

 

 

 

 

 

 

x2

 

 

 

 

 

 

 

 

B

η

(t

2

τ, t

2

)

α N0

eα τ

1 e 2α t2

 

(3.7б)

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

4

 

 

 

 

 

 

 

 

 

 

 

 

 

 

t2

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

Используя

 

 

сделанные

 

 

допущения,

 

 

 

 

 

 

 

 

 

 

x1

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

объединим обе формулы

 

 

 

 

 

 

 

 

 

t2

 

 

t1

 

 

 

 

 

 

 

 

 

 

α N0

 

 

 

1 e 2α t .

 

 

 

 

 

 

 

 

 

 

 

B

η

(τ, t)

e α

 

τ

 

 

(3.7)

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

4

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

Рис. 3.4

 

 

 

 

 

 

 

 

Как

 

видно

 

 

 

из

 

формулы

 

(3.7),

 

 

 

 

 

 

 

 

 

 

 

 

корреляционная

 

 

функция

 

зависит

от

текущего момента времени. Если время наблюдения намного больше

постоянной времени цепи, членом e 2α t

в (7.7) можно пренебречь и

в результате получим

 

 

 

 

 

 

 

 

 

 

 

α N0

 

 

 

 

B

η

(τ)

e α

 

τ

 

 

(3.8)

 

 

 

 

4

 

 

 

 

 

 

 

 

 

 

 

 

 

 

82

Соседние файлы в предмете [НЕСОРТИРОВАННОЕ]