Добавил:
Upload Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:

Gorbachev_OsnoviTeoriiSluchajProtces[1]

.pdf
Скачиваний:
55
Добавлен:
06.06.2015
Размер:
1.08 Mб
Скачать

 

t

k

 

 

 

 

 

 

 

 

 

 

 

 

 

t

 

 

 

 

 

λ(x)dx

 

λ( x)dx

 

 

 

P{K(t) = k} =

 

0

 

e 0

,

 

 

 

 

k!

t

 

 

 

 

 

 

 

 

 

 

т.е. распределение Пуассона с параметром

 

 

(t) =

1

λ(x)dx .

λ

 

 

 

 

 

 

 

 

t

0

 

 

 

 

 

 

 

 

 

 

 

Читатель может самостоятельно убедиться, что выражения для многомерного распределения и моментных функций (см. (2.3)-(2.6)) теперь могут быть получены путем замены

t"

произведений вида λ(t-t) интегралами λ(x)dx . В частно-

t'

сти, для функции математического ожидания и корреляционной функции случайного процесса получаем

mK (t) = t λ(x)dx,

(2.7)

0

 

min(t1,t2 )

 

RK (t1, t2 ) = λ(x)dx.

(2.8)

0

 

Итак, если интенсивность потока событий задана неслучайной интегрируемой функцией λ(t) и поток отвечает Условиям 2.2 и 2.3, то он сохраняет свойства пуассоновского процесса и функция λ(t) полностью определяет его систему конечномерных распределений (и, следовательно, его моментные функции).

Иначе обстоит дело, если интенсивность λ(t) сама явля-

ется случайной функцией. Пусть, например (в самом простом случае) интенсивность λ — случайная величина, принимающая одно из двух значений: λ1 с вероятностью p или λ2

с вероятностью q = 1 – p. Тогда одномерное распределение процесса (в предположении, что при каждом значении λ поток является простейшим) согласно формуле полной вероятности имеет вид

41

P{K(t)= k} = P{K(t)= k

 

λ = λ1}p +P{K(t))= k

 

λ = λ2}q =

 

 

 

 

=

1t)k

eλ1 t p +

2t)k

eλ2

tq,

k!

k!

 

 

 

 

 

 

 

 

т.е. процесс уже не является пуассоновским: его распределение представляет собой смесь двух пуассоновских процессов.

§ 2.3. Сложный пуассоновский процесс

Во всех рассмотренных выше пуассоновских процессах мы интересовались лишь числом событий, происходящих за тот или иной интервал времени, или паузой между событиям; эффект, приносимый каждым событием, (их «вес») в этих моделях не фигурировал. Нередко, однако, в реальных процессах веса событий играют важную роль. Так, например, при моделировании потока коммерческих сделок исследователя интересует доход от каждой сделки или суммарный доход, приносимый ими в заданном интервале времени.

Введение в модель веса событий нетрудно осуществить, когда этот вес v является детерминированной величиной и одинаков для всех событий. В этом случае простой пуассоновский процесс превращается в взвешенный пуассоновский процесс Q(t), выражающий суммарный вес событий, происходящих за интервал времени [0,t), и принимающий значения, кратные v:

Q(t) = v K(t).

(2.9)

Читатель легко убедится, что функция математического ожидания и корреляционная функция этого процесса соответственно равны

mQ(t) = v mK(t), RQ(t1,t2) = v2 RK(t1,t2),

где mK(t) и RK(t1,t2) при постоянной интенсивности процесса находятся из (2.4) и (2.6), а в случае переменной интенсивно-

сти – из (27) и (2.8).

42

Существенный интерес для практики представляют собой модели потоков событий с переменным весом (например

– потоков сделок с различной доходностью). Стохастической моделью такого рода потоков событий может служить при определенных условиях описанный ниже сложный пуассо-

новский процесс.

Пусть, как и ранее, поток событий образует простой пуассоновский процесс K(t), но каждое i-е событие обладает индивидуальным весом Vi. Допустим, далее, что веса событий {Vi} – независимые в совокупности случайные величины с одинаковым независящим от времени распределением: Vi FV(u). Предполагается также, что веса событий и процесс K(t) независимы.

Сложным пуассоновским процессом будем называть процесс Q(t), значение которого для каждого t равно суммарному весу событий, происшедших в интервале времени [0,t) (очевидно, что взвешенный пуассоновский процесс представляет собой вырожденный случай сложного пуассоновского процесса).

Иными словами, сложный пуассоновский процесс определяется равенством

K (t)

Q(t) = Vi ,

i=1

т.е. представляет собой сумму случайного числа K(t) случай

ных величин Vi с распределениями: K(t) P (λt)

O

Vi FV (v).

-

,

Получить непосредственно распределение случайной величины Q(t) (т.е. одномерного распределения – сечения – процесса Q(t)) в удобной для практики аналитической форме обычно не удается. Найдем характеристическую функцию этого распределения. Условная характеристическая функция величины Q(t) при фиксированном K(t)= k равна

ϕ

Q(t)

(s

k) = M (e jQ(t)s

k) = (ϕ (s))k ,

 

 

 

 

V

(2.10)

 

 

 

 

 

43

(здесь ϕV (s) — характеристическая функция случайных ве-

личин Vi); для безусловной характеристической функции величины Q(t) получим

 

ϕQ(t) (s) = (ϕV (s))k p(k) , ( p(k) = P{K(t) = k}).

(2.11)

k=0

 

Нетрудно убедиться, что полученное равенство представляет собой производящую функцию распределения Пуассона:

 

 

 

ψ(z) = zk p(k) = e−λt (1z)

 

k=0

 

 

 

при z = ϕV (s) , т.е.

 

 

 

ϕQ(t ) (s) = e

λt (1ϕV (s))

.

(2.12)

 

Полученная характеристическая функция может служить определением сложного распределения Пуассона и позволяет находить моменты распределения случайной величины Q(t) ввиду известной связи между характеристической функцией случайной величины X и начальными моментами MXr:

 

r

 

 

r

ϕX (s)

 

MX

= j

r d

 

 

 

 

 

 

ds

r

.

 

 

 

 

 

 

s=0

Используя эту формулу и учитывая указанные выше условия, налагаемые на сложный пуассоновский процесс (включая свойство отсутствия последействия, предписанное Условием 2), нетрудно найти моментные функции этого процесса

mQ(t) = MQ(t) = λtMV,

RQ(t1,t2) = λMV2min(t1,t2), σQ2(t) = λtMV2,

где MV , MV 2 — начальные моменты первого и второго порядка случайной величины V, вычисляемые по распределению FV (v) .

44

При дискретном распределении случайной величины V, заданном вероятностями

pi = P{V = vi }, i =1, ..., n, n ≤ ∞,

получим

ϕV (s) = pi e jvi s ,

i=1n

 

n

 

 

ϕQ(t ) (s) = e

λt (1pie jvi s )

.

(2.13)

i=1

 

 

 

Можно убедиться, что в этом случае характеристическая функция, а следовательно и распределение случайной величины Q(t) (т. е. сечения сложного пуассоновского процесса) при t совпадают с характеристической функцией и распределением случайной величины, представляющей собой сум-

му n случайных величин Qi (t) , i = 1, n , каждая из которых

равна суммарному весу, вносимому в интервале времени [0,t) i-м из n независимых взвешенных пуассоновских процессов с

постоянными весами событий vi и интенсивностями λpi .

Действительно, рассмотрим n таких процессов. Суммарный вес событий за время t для каждого из этих потоков

равен Qi (t) = vi Ki (t) , где Ki Po(λtpi ) . Для характеристической функции каждой случайной величины Qi (t) нетрудно получить

 

 

 

ϕQ (t) (s) = ϕK

(t) (vi s) = e−λtpi (1jvis) ,

 

 

 

 

i

i

 

 

 

 

после

 

чего для

характеристической

функции

суммы

~

n

(i)

находим

 

 

 

 

 

VΣ = VΣ

 

 

 

 

 

i=1

 

 

 

λτpi (1e jvis )

 

−λτ(1pie jvis )

 

 

 

n

 

= e

 

 

ϕV (s) = ϕV (i ) (s) = e

i

i

,

 

 

~

 

 

 

 

 

 

 

 

Σ

i=1

Σ

 

 

 

 

 

 

 

 

 

 

 

 

что совпадает с (2.13 ) и означает тождественность распреде-

~

лений случайных величин Q(t) и Q(t).

45

Рассмотренные нами модификации пуассоновского процесса направлены на ослабление предъявляемых к нему требований в части постоянства интенсивности и (в некотором смысле) ординарности. При этом, однако, требование отсутствия последействия сохраняется, как фундаментальное свойство пуассоновского процесса. Замена этого требования более слабым возможно при использовании в качестве моделей реальных точечных процессов так называемых процессов восстановления, рассматриваемых в следующих двух параграфах.

§ 2.4. Процессы восстановления. Простой процесс восстановления

Рассмотрим класс точечных случайных процессов, для которых требование отсутствия последействия, действующее применительно к пуассоновским процессам, заменяется менее строгим условием независимости (в совокупности) интервалов между событиями (почему второе условие слабее первого читателю полезно убедиться самостоятельно).

Такие процессы носят название процессов восстановления (что отражает широкое применение процессов этого класса в математической теории надежности).

Ниже приведены основные положения теории процессов восстановления (подробнее — см., например, [1, 4]).

Рассмотрим поток однородных событий, интервалы вре-

мени между которыми образуют последовательность {Tn }n=1 независимых одинаково распределенных случайных величин с ф.р. FT (t) . Случайную величину

k

K0,t = max(k : Ti < t),

i=1

равная числу событий в интервале времени [0, t) и рассмат-

риваемая как функция t, будем называть простым процессом восстановления. Не опасаясь путаницы, мы можем сохранить

46

обозначение для этого процесса K(t). Очевидно, что при фиксированном показательном распределении интервалов между событиями простой процессом восстановления превращается в простой пуассоновский процесс.

Свойства простого процесса восстановления могут описываться как распределениями числа событий K(t) при раз-

n

личных значениях t , так и распределениями сумм τn = Ti

i=1

при n =1, 2, ...

Найдем одномерное распределение процесса восстановления K(t) при фиксированном t, т.е. функцию распределения

FK (k;t) = P{K(t) < k} .

 

Очевидно равенство

 

 

P{K(t) k} = P{τk < t} = Gk (t),

(2.14)

где

Gk (t) = Fτk (t)

— функцию распределения

суммы

 

k

 

 

τk

= Ti , т.е. свертка k функций распределения FT(t), кото-

i=1

рая, как известно, может быть получена из рекуррентного равенства

Gk (t) = t Gk 1 (t x)dG1 (x),

0

(здесь G1(x) = FT(x)).

Из (2.14) следует

FK (k; t) =1 Gk (t).

В некоторых случаях для вычисления функции распределения Gk(t) (и, следовательно, FK(k;t)) удобно использовать характеристическую функцию ϕT (s) случайной величины T,

имея в виду её связь с характеристической функцией случайной величины τk:

ϕτk (s) = (ϕT (s))k .

Из (2.14) также следует:

47

pk (t) = P{K(t) = k} = Gk (t) Gk+1 (t).

Функция математического ожидания процесса восстановления вычисляется по формуле

 

 

MK(t) = kpk (t) =k[Gk (t) Gk +1 (t)]=

 

k =1

 

k =1

 

= kGk (t)

(k +1)Gk +1 (t) + Gk +1 (t)

= Gk (t).

k =1

k =1

k =1

k =1

Когда интервал времени [0, t) велик относительно среднего значения промежутка времени между событиями T, можно использовать асимптотические свойства процесса восстановления, которые находят выражение в законе больших чисел и в предельной теореме, принимающих здесь следующие формы.

Пусть интервал между событиями имеет ограниченное м.о.: MT = a < . Тогда справедлив закон больших чисел в виде сходимости по вероятности:

 

 

 

 

 

 

 

 

 

 

K

(t)

 

 

 

вер

 

1

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

.

(2.15)

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

t

 

 

 

t → ∞ a

 

 

 

Действительно, пусть ε > 0

 

 

и t, возрастая, пробегает

значения,

для которых

 

t

+ εt = N

 

целые числа. Тогда,

 

a

 

ввиду (2.15),

 

 

 

K(t)

 

 

 

1

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

P{

 

≥ ε} =

 

 

 

 

 

 

 

 

 

 

t

 

 

a

 

 

 

τN

 

 

 

 

 

 

 

 

 

t

 

 

 

 

 

 

N

 

 

 

 

 

 

 

 

 

= P{K(t)

t} = P{τ

N

<

 

 

 

 

} = P{

< a(1−ε )},

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

a

 

 

 

 

1

a

 

 

 

N

1

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

a ε

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

где ε =

 

 

.

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

1

1

+ a ε

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

48

Но согласно закону больших чисел в форме Хинчина

при N → ∞

τ

N

 

вер

 

 

 

 

 

 

 

 

 

 

a,

в силу чего

 

 

 

N

 

 

 

 

 

 

 

 

 

τN

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

P{

 

< a(1 − ε )} →0

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

N

1

N →∞

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

для ε1 (и, следовательно, для ε).

 

 

 

Аналогично

 

 

 

 

 

 

 

 

 

P{

K(t)

 

 

1

 

< −ε} =

 

 

 

 

 

 

 

 

 

t

 

a

 

τN

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

=1P{K(t)

t

−εt} =1P{

 

 

< a +a (

1

1)} 0,

 

 

 

 

 

 

 

 

 

 

 

 

a

 

N

1−εa

N→∞

 

 

 

 

 

 

 

 

 

 

т.е. для ε

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

P{

 

K(t)

1

 

≤ ε} 1,

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

t

 

 

a

 

t→∞

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

что соответствует (2.15).

Центральная предельная теорема для процесса восстановления состоит в следующем утверждении. Пусть сущест-

вует конечная дисперсия DT = σ2 интервала времени между событиями T. Тогда при t →∞ имеет место сходимость по распределению

K(t) t

D

. (2.16)

a Y N (0, 1)

tσ2 a3

Доказательство этого факта вытекает из очевидного равенства

P{K(t) k} = P{τk < t} = P{τkσkak < tσakk }.

49

Обозначим x = tσakk }.Согласно центральной предель-

ной теореме

P{

τk

ak

< x} →Φ (x) . (2.17)

 

 

 

σ

k

k→∞

 

 

При каждом фиксированном x величина k связана с t равенством

 

 

 

 

xσ(xσ±2 at(1+

x2σ2

)

 

 

 

 

 

 

 

k =

t

 

 

4t a

t

 

 

xσ at

 

1

 

 

+

 

 

=

 

±

(1+0(

)).

 

a

 

2a2

 

 

 

a

 

a2

 

t

Далее, используя равенство (2.14) и (2.17) и подставляя в них посдеднее выражение для k, получим

P{K(t) t ± xσ at} →Φ* (x) a a2 t→∞

или

P{K(t) t xσ at} →Φ*(x) a a2 t→∞

(здесь выбран знак минус, учитывая одинаковую монотонную зависимость от x левой и правой частей). Из последнего соотношения непосредствено следует (2.16).

Приведенный результат позволяет при достаточно больших t аппроксимировать распределение случайной величины K(t) (сечения процесса в момент t) нормальным (гауссовским) распределением, т.е. для простого процесса восстановления для t полагать

~

2

t

2

 

tσ2

K(t) N (mk , σk ), где mk =

 

, σk

=

 

a

a3

 

 

 

 

В качестве моделей реальных процессов могут исполь-

зоваться взвешенные процессы восстановления. Если все со-

бытия, образующие процесс восстановления, имеют одина-

50

Соседние файлы в предмете [НЕСОРТИРОВАННОЕ]