Добавил:
Upload Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:

Gorbachev_OsnoviTeoriiSluchajProtces[1]

.pdf
Скачиваний:
55
Добавлен:
06.06.2015
Размер:
1.08 Mб
Скачать

ковый неслучайный вес v (в смысле, принятом в § 2.4), то, как нетрудно убедиться, суммарный вес Q(t) = vK(t) собы-

тий, осуществившихся за достаточно большое время t (т.е., иначе говоря, сечение взвешенного процесса восстановления в момент t), имеет распределение, близкое к нормальному:

Q(t) ~ N(vmk , v2σk2 ).

§ 2.5. Сложный процесс восстановления.

По аналогии с сложным пуассоновским процессом,

сложный процесс восстановления отличается от простого

(взвешенного) процесса восстановления тем, что веса образующих его событий являются случайными величинами Vi, которые, как и для сложного пуассоновского процесса, независимы в совокупности и имеют одинаковую функцию распределения FV (v). Ясно, что сложный пуассоновский про-

цесс представляет собой частный случай сложного процесса восстановления (при показательном распределении интервала времени между событиями).

Основная задача состоит, как и прежде, в получении распределения случайной величины. Q(t) , равной сумме ве-

сов Vi событий, происходящих на интервале времени [0,t). Повторяя выкладки, приведенные для сложного пуассо-

новского процесса ( см. (2.10) и (2.11)), получим

ϕQ(t) (s) = ψK (ϕV (s)),

(2.18)

где, однако, ψK ( ) — производящая функция не распределе-

ния Пуассона, а распределения числа событий в процессе восстановления K(t). Соотношение (2.18) позволяет сравнительно легко выражать моменты распределения случайной величины Q(t) через моменты распределений случайных

величин . V и K, в частности

MQ(t) = MK MV , DQ(t) = DK (MV )2 + MK DV. (2.19)

Однако, как и в случае сложного распределения Пуассона, использовать (2.18) для выражения функции распределе-

51

ния FQ(t ) ( ) в аналитической форме в общем случае не уда-

ется.

Следует также заметить, что, в отличие от сложного пуассоновского процесса, сложный процесс восстановления в общем случае не представим в виде суперпозиции взвешенных простых процессов восстановления.

При достаточно больших интервалах наблюдения [0,t) (в сравнении с средним интервалом времени между событиями) при определенных условиях применима предельная теорема, позволяющая аппроксимировать распределение с.в. Q(t)

нормальным распределением. Рассмотрим этот вопрос подробнее.

Пусть V – случайная величина с конечным моментом третьего порядка M V3 .

Образуем для фиксированного k случайную величину Sk:

Sk =

VΣ (k) MV Σ(k)

,

DVΣ (k)

 

 

 

 

где

 

 

 

 

k

 

 

 

 

VΣ(k) =Vi ,

 

MVΣ =k MV,

DVΣ =k DV.

i=1

 

 

 

 

Согласно центральной предельной теореме

S

k

Y N (0, 1),

 

k→∞

 

т.е.

FS (x) →Φ (x).

k k→∞

В нашем случае, однако, k — реализация случайной величины K = K(t), и задача заключается в выяснении асимптотического поведения SK при t → ∞ , имея в виду, что K — случайная величина, распределение которой зависит от t и задается вероятностями

{P{Kt = k} = pt (k)}k=0 .

(2.20)

52

Рассмотрим случайную величину

 

K

K

 

 

Vi M Vi

 

S(t) =

i=1

i=1

,

(2.21)

 

 

 

 

K

 

 

 

DVi

 

 

 

i=1

 

в которой K = K(t), в отличие от k в Sk, является случайной величиной с распределением (2.20), и, в прежних обозначе-

K

 

 

 

 

 

 

 

ниях, Vi

= Q(t).

 

 

 

 

 

 

i=1

 

 

 

 

K =

k обозначим

Для

каждого

фиксированного

S(t) = Sk . По формуле полной вероятности получаем

 

 

 

 

 

 

 

 

P{S(t) < x} = P{Sk < x}pt (k) .

 

 

 

 

k=1

 

 

 

Задача состоит в проверке сходимости для x

 

P{S(t)

< x}

→Φ (x) .

 

 

(2.22)

 

 

 

 

t→∞

 

 

 

Перепишем это соотношение в виде

 

 

 

 

(x, t) =

[P{S

k

< x} − Φ (x)]p

(k) 0.

 

 

 

t

 

t→∞

 

k=0

 

 

 

 

 

 

Предположим, что распределение вероятностей (2.20)

удовлетворяет условию: для ε1 > 0, k0

t0 :

t > t0

 

 

k0

 

 

 

 

 

 

 

pt (k) < ε1 ,

 

 

(2.23)

k=0

идля (x, t) получим

(x, t) P{Sk <x}−Φ (x) pt (k) <

 

k=0

k0

P{Sk <x}−Φ (x)

 

<pt (k)+

pt (k).

k=0

k=k0

 

 

Согласно неравенству Берри–Эссеена [5] , для k имеет место соотношение

53

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

M

 

0

 

3

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

A

 

 

 

 

 

< x} − Φ (x)

 

C

 

V

 

 

 

 

 

 

 

 

 

 

 

 

= sup

P{S

k

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

k

x

 

 

 

 

 

 

 

 

 

 

(DV )3 k

 

 

 

 

 

 

 

 

1

 

 

 

 

 

 

 

 

 

 

 

 

(2.24)

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

(здесь

C < 0,8 ),

 

т.е.

для

ε

2

 

k

 

: k k

 

 

A < ε

2

и

 

 

 

0

0

 

 

 

 

 

 

2π

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

k

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

P{Sk < x} − Φ (x)

 

pt (k) < ε2

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

для x.

 

Если одновременно

k=k0

 

 

 

 

k0 выбрать

t0,

удовлетворяющее

(2.23),

 

то

для данного

 

 

(x, t)

 

< ε = ε1 + ε2 , где

ε

произвольно,

т.е.

для

 

x

 

 

 

(x, t) 0.

t→∞

Следовательно, при достаточно большом t можно приближенно полагать

Q(t) ~ N (MQ(t), MQ(t)),

где MQ(t) и DQ(t) находятся из (2.12).

Проверим выполнение условия (2.15), которое может

быть записано в виде:

 

 

 

 

 

 

 

 

 

для k

0

P{K

t

< k

0

} = F

(k

0

) 0 .

 

 

 

 

Kt

 

t0

Но для процесса восстановления (и простого, и сложно-

го) справедливо равенство

 

 

 

 

 

 

 

 

FKt

(k0 ) = P{τk0

t} =1 Fτk0 (t)

и, поскольку при t → ∞

Fτk0

(t) 1,

условие (2.15) выпол-

няется всегда, и достаточным условием для выполнения (2.22) является существование третьего момента, фигурирующего в (2.24).

Следует подчеркнуть, что установленное здесь существование предельного нормального распределения сложного (как и простого) процесса восстановления относится к одномерным распределениям процесса, т.е. к отдельным его сечениям. Это не позволяет, конечно, говорить о нормализации процесса в целом: нормальность компонент случайного век-

54

тора не означает нормальность самого вектора.

§2.6. Нормальный (гауссовский) случайный процесс.

Вэтом параграфе рассматриваются основные свойства часто используемого в стохастических моделях нормального (гауссовского) случайного процесса.

Определение 2.2. Нормальным (гауссовским) случайным процессом называется случайный процесс, все конечномерные распределения которого имеют нормальное распределение.

Из этого определения следует, что любой конечномерный случайный вектор, образованный сечениями процесса

X(t), имеет нормальное распределение, т.е.

 

 

 

 

n, t ,..., t

n

Xr

= ( X (t ),... X (t

n

))T N (m

X

,R

X

) , (2.25)

1

 

1

 

 

 

где mX – вектор математического ожидания, образованный

математическими ожиданиями сечений процесса или, иными словами, значениями функции математического ожидания mX(t) процесса X(t) для моментов t1,…, tn, RXкорреляционная матрица, каждый (i,j)–ый элемент которой равен корреляционному моменту сечений X(ti) и X(tj), т.е. значению корреляционной функции RX(t, t) для моментов времени t= ti, t= tj

(напомним, что для стационарного процесса R(t, t) = =R(t’- t)).

Из всего сказанного следует, что система конечномерных распределений нормального случайного процесса полностью определяется двумя моментными функциями: функцией математического ожидания (для стационарного процесса равной константе m) и корреляционной функцией.

Важным и весьма полезным свойством нормального случайного процесса является сохранение этого типа распределения при линейных преобразованиях процесса. Следует подчеркнуть, что эта устойчивость нормального распределения присуща не только распределениям отдельных сечений процесса (т.е. его одномерным распределениям),но и любому

55

Z(t) =

конечному набору сечений, т.е. всем конечномерным распределениям процесса.

Пусть, например, X – нормальный вектор, образованный n сечениями нормального процесса X(t) (см. (2.25)), и Y(t) = b(t) X(t) + a(t) – его линейное преобразование. Тогда

вектор X преобразуется в нормальный вектор

 

 

 

 

 

 

 

r

= (Y

(t ),...Y (t

 

))T

r

 

,R

) ,

 

 

 

 

 

 

Y

n

N (m

 

 

 

r

r

 

r

 

1

 

 

r

= (a(t

Y

Y

 

 

))T , B

где

 

R

= BR

 

BT

,

 

),..., a (t

 

m

= Bm

X

+ a,

X

a

1

n

 

Y

 

 

Y

 

 

 

 

 

 

 

 

матрица с элементами:

= b(ti ), если i = j,

 

 

 

 

 

 

 

 

bij

 

 

 

 

 

 

 

 

 

 

0, если i j.

 

 

 

 

 

Возможны, конечно, и более сложные линейные преобразования исходного процесса X(t). Так, например, его линейное преобразование приводит к процессу Z(t), значения которого представляют собой допредельные представления производной процесса X(t):

X (t + t) X (t) . t

Читатель может самостоятельно проверить, что и в этом случае любой конечный набор сечений процесса Z(t) представляет собой нормальный вектор.

Если процесс X(t) дифференцируем в среднем квадратичном, то при t 0 процесс Z(t) превращается процесс, представляющий собой производную процесса X(t), сохраняя при этом нормальное распределение (последнее следует из предельных свойств сходимости в среднем квадратичном и непрерывности функции нормального распределения). Итак, если нормальный процесс дифференцируем в среднем квадратичном, то и после его дифференцирования образуется нормальный процесс.

Подобные рассуждения показывают, что нормальное распределение сохраняется и при интегрировании процесса: случайный процесс, возникающий в результате интегрирова-

56

ния нормального интегрируемого (в среднем квадратичном) процесса сохраняет нормальное распределение.

Одна из задач, часто возникающих при анализе случайных процессов, состоит в прогнозировании поведения процесса (в среднем) в будущем по его текущим значениям. Рассмотрим подход к решению такой задачи (относящейся к разделу математической статистики, именуемому регрессионным анализом) дляr нормального случайного процесса.

Обозначим X вектор, образованный m + n сечениями нормального (невырожденного) случайного процесса X(t) с

функцией математического ожидания m = m(t) и с корреляционной функцией R = R(tt)

Xr = ( X (t ), ..., X (t

m

), X (t

m+1

) ..., X (t

m+n

))T N (m

X

, R

X

) . (2.26)

 

1

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

Положим

t

< t

 

< ... < t

m+n

и рассмотрим два подвектора

r

r

 

1

 

 

 

2

r

:

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

X (1) и

X (2) вектора X

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

r

 

 

X (1)

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

X

=

r

 

 

,

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

X (2)

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

Xr(1) = ( X (t ), ..., X (t

m

))T ,

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

1

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

Xr(2) = ( X (tm+1 ), ..., X (tm+n ))T .

 

(2.27)

Используя далее известные свойства нормального слу-

чайного вектора, получаем

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

Xr(1) N (mX( 1 ) , RX (1) ),

X (2) N (mX(2) , RX (2) ),

причем

 

 

 

 

 

r

 

 

 

 

 

 

 

 

 

R

 

 

 

R

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

r

 

 

m

 

 

 

 

 

 

X (1)

 

 

 

 

 

 

 

 

 

=

 

r

X (1)

 

 

R

 

=

 

 

 

 

 

 

 

X (1) X (2)

 

m

X

 

 

 

,

 

 

X

R

 

 

 

 

 

 

R

 

 

 

 

 

 

 

m

 

 

 

 

 

X (2) X (1)

 

X (2)

 

 

 

 

 

 

 

 

X (2)

 

 

 

 

 

 

 

 

 

 

 

 

где RX (1) X (2) , RX (2) X (1) = RXT

(1) X (2)

– матрицы взаимных корре-

ляционных моментов компонент векторов X (1)

 

 

и Xr(2) .

Условное распределение вектора X (2)

(т.е. любого ко-

нечного набора сечений процесса X(t) для моментов времени после момента t, tm< t< tm+1), при измеренных значениях лю-

57

бого конечного набора сечений процесса в моменты времени до t (т.е. вектора Xr(1) ) является нормальным с плотностью распределения

 

 

 

 

 

 

 

 

 

 

 

 

 

r

 

r

r

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

где

 

r

 

 

 

 

 

r

f (x(2)

 

x(1)) = N (m2

 

1 , R2

 

1 ),

r

r

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

r

 

 

 

 

 

 

r

 

r

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

m2

 

1

= M ( X (2)

X (1)

= x(1))

= mX (2)

+ RX (2) X (1) RX1(1) (x(1) mX (1) ),

 

R2

 

1

= RX (2)

RX (2) X (1) RX1(1) RX (1) X (2) .

 

(2.28)

 

 

 

 

 

 

 

Вектор m2

 

1 , рассматриваемый как вектор-функция век-

 

 

 

 

 

 

 

xr(1)

 

 

 

 

 

Xr(2) на

тора

, называется функцией регрессии вектора

вектор Xr

(1) . Эта функция

 

 

 

 

 

 

 

 

 

r r

 

r

 

 

r

r

 

 

 

 

r

r

 

ψ(x(1)) = m2

 

1 (x(1)) = mX (2)

+ RX (2) X (1) RX1(1) (x(1)

mX (1) ) (2.29)

 

выражает поведение случайного процесса в среднем после момента t в зависимости от его состояний, зафиксированных в моменты времени, предшествующие моменту t.

Рассматривая функцию регрессии ψ(x(1)) как оценку значений вектора сечений процесса X (2) при фиксирован-

ном значении вектора Xr(1) = xr(1) , можно убедиться, что эта оценка оптимальна в смысле минимума среднеквадратичного отклонения от неё вектора X (2) .

Действительно, для любой функции b(xr(1)), отличной от ψr(xr(1)), получаем

M(( X (2) b(x(1))T ( X (2) b(xr(1)) xr(1)) =

=M (( Xr(2) − ψr(xr(1)) + ψr(xr(1)) b(xr(1))T ( X (2) − ψr(xr(1)) + ψr(xr(1)) br(xr(1)) xr(1)) =

=M (( X (2) − ψr(x(1))T ( X (2) − ψr(xr(1)) xr(1)) + (ψr(xr(1)) b(xr(1)))T (ψr(xr(1)) b(xr(1)))

r

(2)

r

r

(2)

r r

(1))

r

(1)).

M (( X

−ψ( x(1))T ( X

−ψ(x

x

Важно заметить, что функция регрессии (2.29) здесь линейна, что, однако, отражает свойства нормального распре-

58

деления. В общем случае нередко приходится иметь дело с нелинейными функциями регрессии.

На практике чаще всего регрессия рассматривается для частного случая, когда вектор X (2) представляет собой скалярную случайную величину, т.е. в (2.26) и (2.27) n = 1. Обо-

значая в этом случае tm+1 = t, X (tm+1 ) = X (2) = X (t) , получаем скалярную функцию регрессии, равную условному математическому ожиданию значения процесса X(t) в момент t при фиксированных значениях процесса в моменты t1 < t2 <... < tm , tm < t .

59

Г Л А В А 3

МАРКОВСКИЕ ПРОЦЕССЫ

§3.1. Общее определение марковского процесса

Одна из главных задач, возникающих при моделировании реальных процессов случайными процессами, состоит в адекватном описании зависимостей, существующих между значениями процесса в различные моменты времени, т.е. между его сечениями. Наиболее полно это свойство случайного процесса характеризуется семейством его конечномерных распределений SX, позволяющим вычислять условные распределения сечений процесса и моментные функции, описывающие связи между ними. Во многих случаях достаточной характеристикой этих связей является, как мы видели, корреляционная функция случайного процесса.

Нередко на практике встречаются процессы, которые обладают тем свойством, что в их текущем состоянии (значении) с достаточной полнотой сосредоточена информация о состоянии в предшествующие моменты времени. Эта особенность процесса позволяет применить в их моделях иной подход к описанию связей между сечениями и приводит к так называемым. марковским процессам, основные свойства которых рассматриваются в этой главе.

Пусть X(t) – случайный процесс и {Xi = X (ti )}in=1 – произвольный конечный набор его сечений при n > 2,

t1 <t2 < < tn. В общем случае сечение Xn = X(tn) может зависеть, как случайная величина, от всей совокупности сечений

X1, X 2 ,..., X n1, что выражается

 

в зависимости

условной

функции распределения F

(u

n

, t

n

| ( X

1

, ...; X

n1

) B(n1) )

Xn

 

 

 

 

 

P{X (tn ) < un | (X1, ...; Xn1 ) B(n1) }

от борелевского множе-

ства B(n-1), которому принадлежат значения этих сечений.

60

Соседние файлы в предмете [НЕСОРТИРОВАННОЕ]