Процесс q*
Рассмотрим процесс Q* = {£0; N*, г = 0, 1, 2, ...}, введенный в § 27. Предполагается, что Af* = v*+ ... +v* для г=1, 2, ..., где {v*}—двойственная последовательность для {vr}, a {v,} —либо переставляемые случайные величины, принимающие неотрицательные целые значения, либо, в частности, взаимно независимые и одинаково распределенные случайные величины, принимающие неотрицательные целые значения. Положим Nr = Vi+ ... +vr для г=1, 2, ....
Мы хотим найти распределения величин g*, £*, a*, ß*, p* для любого га. Эти случайные величины полностью определяются процессом Q*, или, что то же самое, процессом Q. В § 27 были получены распределения случайных величин £„, £„, а„, ß„, p„ для процесса Q. Сейчас мы сведем задачу нахождения распределений величин а*, ß* и р* к нахождению распределения случайной величины £„.
Вероятность Р [ß* <&} = Р \ап>п — k} для 0</г<л определяется следующей теоремой.
Теорема 8. Если {vr} — переставляемые случайные величины, то
P{Vn<k + i\Z0 = i) = P{Nk^n-\} +
+ 2S(l-//(*-/))P{tf/ = / + n-*-l, Nk-N, = I}, (47)
/=-u=o
eâe 0< /г О — i и 0<k<n. Если k = n — 1, го формула (47) принимает би<9
р {ß; < « -1 + /1 с0=t] = 2 (1 - //(« - О) p Wn-i = /}. (48)
Доказательство. Если k ^.n — i, то в силу (4)
p{ß;<* + /|£0 = /} =
= Р [N*r^r — n + k для некоторого г = 0, 1, ..., га—l}. (49) Следовательно, если k^n— 1, то в силу (2) § 9
p[ß;<* + /u0 = /} =
= Р {Nr :> г — п — k — 1 для некоторого г = 1, 2, ..., /г} =
= \-P{Nr-r<n~k-\ для г = 1, 2 /г}, (50)
а правая часть задается формулой (1) § 6. Равенство (47) доказано. Если, в частности, в (50) k — n—l, то с учетом формулы (4) § 6 получаем (48). Здесь / = 0 или /=1. Отметим также интересное равенство
p{ß;<£ + /]S0 = ;} = i-p{Sft<rt-£-i|?0 = o}, (si)
вытекающее из (14) и (50).
Теорема 9. Если {vr}~ взаимно независимые и одинаково распределенные случайные величины, E{vr} = v>l и Var{vr}=a2< oo, то независимо от распределения случайной величины £0
Птр{^Ц^о} = Ф(*). (52)
n->°o ( y па2/у3 J
Доказательство. Имеем
ß;=s0+^;-c (53)
где £* определяется по формуле (1), в которой Nr надо заменить на N*. В силу (2) § 9
P{N*n<k} = P{Nk^n} (54)
для n + k>0. Теперь, используя (29), легко доказать, что
С дг* _ n/v 1
limP /_^_<* =Ф(х). (55)
Так как lim NJn = у по вероятности, то
lim^f = - (56)
по вероятности. При у>1 отсюда следует, что
lim -г?- = 0 п-»°о га'2
по вероятности. Очевидно, что
£о
п-»оо га'2
по вероятности. В соответствии с этим, если у>1> то при п->оо случайная величина ß* имеет то же асимптотическое распределе-
*
ние, что и Nn. Доказательство закончено.
Замечание. Если Р {\г > х} = h (х)/ха, где 1 < а < 2 и lim h (cx)/h (x) = 1 для любого положительного числа с и gn таково,
что P{vr>g„}~ 1/га, то
\ N.-nly \
limP " <x\=Ga{x), (57)
где Ga(x) —устойчивая функция распределения, определенная соотношением (31). С помощью формулы (54) можно доказать, что
I N*-n/\ 1
Hm Р ; <1+a)/a <* = 1 - Ga(- *) (58)
и, если Y>1, то ß^ при га->оо имеет такое же асимптотическое распределение, что и N*n.
Теорема 10. Если vb v2, ..., v„ — взаимно независимые случайные величины, то
Р {р0 < га + k | С0 = £} = Р {Nn > « + k - 1} +
оля re^O w k~^\. Если k=\, то (59) принимает вид
n
P {pS<«I£o= 4 = l "St1 -i")p W» = Я- (6°)
Доказательство. В силу (6)
= Р{Л^*^г — й для некоторого г = 0, 1, ..., п + к — 1}. (61) Отсюда и из (2) § 9 получаем, что при k ^ 1
p{9;<n + k\ç0 = k} =
= Р{M,^r + k— I для некоторого г = 1, 2, . .., га} =
= 1 - P {Nr - г < k - 1 для г = 1, 2, .. ., га}, (62)
а правая часть находится по формуле (1) § 6 для k~^\ и по формуле (4) § 6 для k= 1. В силу (7)
P{pS<« + *|C0 = *} = P{ß;+*<nl£o = 0}, (63)
а правую часть можно, получить из формулы (47).
Отметим еще интересное равенство
P{pJ<n + *lC0 = *} = l-P_{C„<*lC0 = 0}, (64)
вытекающее из (1) и (62).
Теорема 11. Если {vr} — взаимно независимые и одинаково распределенные случайные величины, то для k^l
p{pS<°°ISo = *} = 1-Q*-i. (65)
где Qk, k = О, 1, 2, ..., определяется в теореме 2. Доказательство. Согласно (62),
P{P;<oo|£0 = è} = l-P{ sup (Nr-r)<k-\), (66)
а правую часть можно получить из теорем 3 и 4 § 6. Если Я]^=1 и y s^ 1> то Qft = 0 Для любого е. Если V < 1. то Qk > О ПРИ & ^ 0.
Пример. Предположим, что в интервале времени (0, с») требования поступают в очередь в моменты х[, х'2, ..., х'г, ..., где т/ —т/_р r=l, 2, ..., являются взаимно независимыми и одинаково распределенными положительными случайными величинами с функцией распределения F(x), a x'Q = 0. Требования обслуживаются единственным прибором, начинающим работать в момент и = 0. Пусть времена обслуживания будут взаимно независимыми и одинаково распределенными случайными величинами с функцией распределения Н(х)= 1 —e~»x (х^О), и пусть они не зависят от моментов прибытия требований. Обозначим через £0 начальную длину очереди. Этот процесс Q' образования очереди — обратный для процесса Q, определенного следующим образом.
В интервале (0, с») требования поступают в очередь согласно закону Пуассона с интенсивностью ц. Требования обслуживает единственный прибор, начинающий работать в момент и = 0. Времена обслуживания являются взаимно независимыми и одинаково распределенными случайными величинами с функцией распределения F(x). Они не зависят от моментов прибытия требований. Начальная длина очереди равна £0. Иначе говоря, Q'— обратный процесс для Q = {£0; NT, г = 0, 1, 2, ...}, где vu v2, . . ., vr, ... —взаимно независимые и одинаково распределенные случайные величины с распределением
°° P{vr = J}=je-»*-tef-dF(x) (/ = 0,1,2,...). (67)
о
Распределение для Nr = v1 + ... + v„ r = 0, 1, 2, ..., равно
P{Nr = j}=je-»*-tef-dFr{x) (/ = 0,1,2,...), (68)
о
где FT(x) есть r-кратная свертка функции F(x); F0(x) = 1 при х^О и Fo(x) = 0 при х<0.
Для обратного процесса Q' обозначения \'п, t,'n, a'n, ß^, р^ имеют тот же смысл, что и \п, £„, ап, ß„, prt для процесса Q. Пусть Q*— двойственный процесс для Q. Мы будем обозначать через |^, С> %' ß«> Р« соответствующие случайные величины для Q*. Легко видеть, что а'п = ап, ß^ = ß* и р^ = р*. В этом параграфе определены распределения случайных величин ап, ß* и р^. Для того чтобы можно было применить общие теоремы, введем следующие обозначения:
Ф(*)=
j
e~sxdF{x) (69)
о
b=jxdF{x) (70)
о
сю
а2й = j(x-b)2dF(x), (71)
если соответствующие интегралы сходятся.
Достаточно найти распределения величин \'п и £,'п. Согласно (3),
P{S;+,<*lSo = '} = P{^+*+.<*ISo = ''b (72)
откуда следует, что можно ограничиться нахождением распределения величины \'п для п=\, 2, .... В дальнейшем мы будем пользоваться обозначением \'0 = %0—\. Найдем распределение случайной величины 1'п.
Теорема 12.
p&<*IêS = /} =
п
= P{^>n + i-A}-SjP{^ = /-*}P{iV„./>n + i-/)I (73)
если k — 1, 2, ... и / = О, 1, .... ß частности,
п
P{rn<k\l'0 = 0} = ^P{N,^j-k} (74)
для &=1, 2, Распределение случайной величины Nr, r = 0, 1,2, ...,
определяется по формуле (68).
Доказательство. Легко видеть, что
MC+1-^f (75)
при и = 1, 2, . .., откуда Ц = max {(« - г) - (Nn - NT) для г = 0, 1, ..., п и E0' + «-/V„}. (76)
Если в (76) заменить vb v2, ..., v„ на v„, v„_1( ..., V! соответственно, то получится новая случайная величина
1'п = max {г - Nr для г = О, 1, . . ., л и |0' + n-tf„] (77)
с таким же распределением, что и (76). Тогда
P{t'n<k\t'0 = i} =
= P{r-Nr<k для г = 0, 1 o«-Jlf„<H, (78)
а правую часть можно получить из (3) § 8. Доказательство закончено, ибо в случае i — 0 (78) получается из (1) § 8.
Теорема 13. Если k~^\, то независимо от распределения случайной величины |„
limP{|;<Ä} = l-oft, (79)
га->оо
где б—наименьший неотрицательный вещественный корень уравнения
cp(n(l-ô)) = ô. (80)
Если \ib ^ 1, то ô = 1, а если \ib> 1, то ô < 1.
Д о к а з а те л ь ст в о. Из формулы (78) вытекает, что независимо от распределения случайной величины %'0
UmP{l'n<k} = P{ sup (r-Nr)<k), (81)
а правую часть находим из теоремы 3 § 8.