Добавил:
Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:

книги из ГПНТБ / Дьяченко, А. Н. Интегральное исчисление функций нескольких переменных. Теория вероятностей и элементы математической статистики учебное пособие

.pdf
Скачиваний:
26
Добавлен:
19.10.2023
Размер:
7.54 Mб
Скачать

Непосредственно из (5.69) и (5.71) можно выразить совместную плотность вероятности через частную и условную плотности веро­ ятности:

fix, y) = fi{x)f{ylx) = f2(y)f(xly).

(5.72)

Формулу (5.72) иногда называют теоремой умножения законов распределения. Эта теорема для непрерывных случайных величин выполняет такую же роль, как теорема умножения вероятностей для событий.

Чтобы уяснить связь между этими теоремами, умножим соотно­

шение (5.72) на ЛхДу и положим х =

х0, у = у0. Рассмотрим пра­

вую и левую части получившегося при этом равенства:

 

 

 

Цх0,

Уо) кхАу = /2 (у0)f (х0/у0) АхАу.

 

 

(5.73)

Как следует из вывода формулы (5.46), левая часть (5.73) при­

ближенно равна вероятности события

{х0< § < х 0 +

Ах;

у0 <т]

<

 

< у 0 +

Ау),

которое

означает

по­

 

падание

 

случайной

точки

М (g, т))

 

в квадрат SKNL (рис. 56). Точнее

 

 

Р (х0

 

х0 -f- Ах;

 

у 0 -С т]

у0) +

 

+ Az/ =

/ (х0,

у0) АхАу-\- аАхАу,

 

 

 

 

 

 

 

 

(5.74)

 

где а ->0

при

Ах

0,

Ау -> 0.

 

 

 

В то же время (см. (5.19))

про­

равно вероятности

изведение

f2 (у0) Ау

приближенно

события В = {у0 <т] < у 0 +

Ау), которое

за­

ключается в попадании случайной точки УИ (£, т]) в полосу, заклю­ ченную между прямыми у = у0 и у = у0 + Ау.

 

 

P{B) = h{y0)Ay + $Ay,

 

 

 

(5.75)

где П т

Ар = 0.

 

 

 

 

 

 

 

 

Д</^0

 

 

 

 

 

 

 

 

 

Рассмотрим также событие А , заключающееся в попадании слу­

чайной точки М (I, т)) в полосу между прямыми х =

х0 и х =

х0+ А х;

А = {х0< \ < х 0 +

Ах}. Можно

показать, что

условная

ве­

роятность Р (AIB)

события А,

при

условии,

что

произо­

шло событие В (т.

е. вероятность

попадания

случайной точки

М (£, г|) в полосу между прямыми х = х0 и х =

х0 +

Ах при ус­

ловии,

что она попала в полосу между

прямыми у =

у0 и

у =

= Уо +

&У, равна

 

 

 

 

 

 

 

 

 

Р {A/B) = fx(x0ly0) A x-fyA x,

 

 

 

(5.76)

где lim

у = 0.

 

 

 

 

 

 

 

 

д*-»е

 

 

 

 

 

 

 

 

130

Из (5.74), (5.75) и (5.76) следует, что с точностью до бесконечно малых более высокого порядка малости, чем АхАу соотношение (5.73) равносильно соотношению

Р (АВ) — Р (В) Р (А/В),

которое следует из теоремы умножения вероятностей.

Таким же образом можно показать, что формулы (5.57) и (5.59) аналогичны формуле полной вероятности, а формулы (5.69) и (5.71) аналогичны формуле Байеса.

Независимость случайных величин. Случайная величина £ назы­ вается независимой от случайной величины г), если информация о том, какое значение приняла случайная величина г) не изменяет за­ кона распределения случайной величины

Если совместный закон распределения (|, р) задан плотностью то независимость £ от р означает равенство условной и частной плотностей вероятности:

fixity) = fi (х).

(5.77)

Из (5.72) и (5.77) следует, что свойство независимости случайных

величин взаимно, и для того, чтобы они были независимы,

необхо­

димо и достаточно, чтобы

 

fix, y) = fiix)hiy)

(5.78)

совместная плотность вероятности равнялась произведению част­ ных плотностей вероятностей.

Пусть случайные

величины независимы. Подставляя f (х, у)

из (5.78) в (5.47), находим, что

Р{х,

У) = J

dx | /у (х) / 2 iy) dy.

 

— СО

— 0 0

Множитель /у (х) от у не зависит, поэтому его можно вынести за знак внутреннего интеграла:

F (х, у ) = ]

h (х) dx | /2 iy) dy.

— 0 0

— ОО

В последнем выражении внутренний интеграл является множи­ телем подинтегрального выражения внешнего интеграла. Так как этот множитель от х не зависит, его можно вынести за знак интег­ рала:

F (х, у) — ( f

/2 (У) dy\ J fi (х) dx.

\—00

/ —ОО

Принимая во внимание (5.22), получаем окончательно:

F (х, у) = Fx (х) F2 iy),

т. е. совместная функция распределения независимых случайных величин равна произведению их частных функций распределения.

131

Кроме того, из (5.67), (5.70), (5.72) и (5.22), (5.20) следует, что для независимых случайных величин

Fi (х/у) = Fx (х); F2 (у/х) = F2 (у).

Выше показано что, зная совместный закон распределения слу­ чайных величин (I, ri), можно найти закон распределения каждой из них. Обратно, восстановить совместный закон распределения по частным распределениям случайных величин можно только для независимых случайных величин. Если же случайные величины зависимы, то чтобы восстановить совместное распределение двух случайных величин, нужно знать частное распределение одной из них и все условные распределения другой.

Частные и условные законы распределения координат случай­ ного вектора, распределенного по двумерному нормальному закону. Совместная плотность вероятности двумерного нормального закона определяется формулой (5.50):

1

( х - а )*

пи (х—а) { У — Ь )

,

(у-Ь У

2 (1—к2)

О

~ ~

"*

О

/ С*. У)

2яст1аа У 1k2

При k — 0 это выражение приобретает вид:

 

(Х - C ) 2 , ( У - Ь Г

 

--------п

-------- 1-----------

п ----

fix, у)- 2ne1as

 

 

(д-ьу

(х—а)‘2

 

 

~—= —е 2о?

_

- е

2о;2 .

У 2лCTj

У 2л аг

 

Следовательно, при k = 0 совместную плотность вероятности можно представить в виде произведения двух сомножителей, один из которых является функцией только х, другой — функцией только у.

 

_

fix,

y)=fi(x)f»(y),

_ (У-Ь)3

Л/ .

20?

. . .

1

1

20?

где А (*)= -—

. е

1 ;

/2 (у)

У 2я а2

 

У

 

 

 

Таким образом,

в случае k =

0, координаты £ и т) случайного

вектора, распределенного по нормальному закону, независимы, причем, как следует из (5.26), законы распределения координат |, г) также являются нормальными.

Найдем частные и условные законы распределения координат в случае k =/=0. Чтобы найти частную плотность вероятности (х)

132

координаты | в соответствии

с

(5.57)

проинтегрируем

(5.50) по у:

 

 

 

+0 0

1

( х - а )2 _ 2k

(х—а) (t/-Ь)

( у - Ь у

h (*)

 

 

2 (1—ft2)

 

 

 

dy.

 

 

 

 

 

 

 

 

 

 

_оо

 

 

 

 

 

 

2na1a2V 1— й

 

 

 

 

 

 

Заменой переменной интегрирования по формуле

 

 

ti=

аха2V l—k2[Oiiy— Ь) ko2{x—а)]

 

это выражение преобразуется к виду

 

 

 

 

 

 

 

 

 

(х—а)2 + о о

JL

 

 

 

 

fi(x) = - l — e

2а,

е

 

 

 

 

2 dt.

 

 

 

 

 

2ла.

 

 

 

 

 

Так как интеграл в правой части

равен У 2п, то

 

 

 

 

 

 

_ (*-д)а

 

 

 

 

 

h (х) ■-

 

 

2о,

 

 

 

 

 

 

У 2я <jj

 

 

 

 

 

 

 

 

 

 

 

 

Аналогично получается

 

 

(у-ьу

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

Ш =

 

 

2с?

 

 

 

 

 

 

У 2л а2

‘ 2 .

 

 

По формуле

(5.69) находим

условную

плотность

вероятности

ft (х/у):

 

 

 

 

 

 

 

 

 

 

 

 

1

 

к(У)

 

 

 

 

 

 

(х—а)2 пи (х—а) (у—Ь) ,

(у—b y

(У-Ь)2

У2п ах У 1 — к2

2 (1—ft2)

с2

 

+

с|

20?

 

 

 

 

 

 

 

 

 

 

 

 

\x-a-k

<,_»)]*2

 

 

 

У2п ахУ 1 — k2

 

2о2 (1-к2)

 

 

 

 

 

 

 

 

 

и аналогично,

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

В—Ь—к ^ (х—а ) ] 2

h (у!х)

f (*. у)

У2я а 2 У 1 — к2

2q2 (l—ft2)

 

fi (У)

 

 

 

 

 

 

 

133

Таким образом, если случайный вектор распределен по нормаль­ ному закону, то его компоненты также распределены по нормаль­

ным законам (5.52) с параметрами а, и by, сг2. Условные рас­ пределения компонент также нормальные с параметрами соответст­

венно: ах— а±|/~1— k2; mx= a-\-k~Ъ) и ау= а2 ]/" 1 — k2,

my= b + k

а).

5.8. Числовые характеристики

скалярных случайных величин

Во многих практических задачах не требуется такой полной характеристики случайной величины, которая дается ее законом распределения. Достаточно, и даже более удобно, иметь сжатую, суммарную информацию о случайной величине и законе ее распре­ деления. Например, для подсчета числа машин, необходимых для выполнения определенной работы, достаточно знать только, какую работу в среднем способна выполнить каждая машина. Такую ин­ формацию в сжатом виде содержат числовые характеристики слу­ чайных величин — постоянные числа, полученные по определенным правилам из законов распределения.

Важнейшими числовыми характеристиками случайных величин являются моменты различных порядков, и среди них прежде всего математическое ожидание (среднее значение) и дисперсия случай­ ной величины.

Математическое ожидание. Математическим ожиданием 7W[£] (iсредним значением) дискретной случайной величины £ называется сумма произведений возможных значений х£ случайной величины на их вероятности рр

Щ = Л1 [g ]= 2 * ,p „

(5.79)

i

 

где суммирование выполняется по всем возможным значениям. Для случайной величины £, закон распределения которой задан

плотностью вероятности f (х), математическое ожидание опреде­ ляется равенством:

+ 0 О

(5.80)

/П| = М [£ ]= Г xf(x)dx.

Математическое ожидание дает точку числовой оси, вокруг ко­ торой группируются значения случайной величины. В теории ве­ роятностей математическое ожидание играет примерно такую же роль, как центр масс в механике. Действительно, рассмотрим ме­ ханическую аналогию. Пусть единичная масса распределена по п точкам, расположенным на оси Ох, причем в точке с координатой

134

xt сосредоточена масса, равная pt. Координата центра масс такой системы совпадает с М [£]:

%xiPl

i

2 а д -

i i

Дисперсия.Дисперсией D It ] случайной величины % называется математическое ожидание квадрата разности (|—mg):

D[l\ = M [(Е— ms)2] = М [ ( l - M [Е])2].

(5.81)

В силу определения математического ожидания для дискретной случайной величины дисперсия равна:

011] = Я(х{- т д * р {.

(5.82)

i

Для непрерывной случайной величины дисперсия равна:

-г О О

(5.83)

£>[£]= J m^)2f(x)dx.

— СО

Дисперсия характеризует разброс значений случайной величины относительно математического ожидания. Чем больше вероятность значений удаленных от математического ожидания, тем больше дис­ персия. Наоборот, чем теснее группируются значения случайной величины вокруг математического ожидания, чем меньше вероят­ ность удаленных значений, тем меньше дисперсия. Механической аналогией дисперсии является момент инерции системы относительно центра масс (центральный момент инерции).

Часто наряду с дисперсией D [£] в качестве меры разброса слу­ чайной величины вокруг среднего значения рассматривают среднее квадратическое отклонение а, определяемое как корень квадратный из дисперсии:

а= ]/Б1Ё].

(5.84)

Среднее квадратическое отклонение имеет ту же размерность, что и случайная величина §. Заметим, что а иногда называют стан­ дартным отклонением. Механической аналогией а является радиус инерции.

Начальные и центральные моменты. Определение 1. Начальным

моментом mgfe) порядка k случайной величины £, называется мате­ матическое ожидание k-й степени £:

т^ = М{1к].

'

(5.85)

 

 

О

Определение 2. Центрированной случайной величиной £, соответ­

ствующей случайной величине £, называется разность между слу­ чайной величиной \ и ее математическим ожиданием:

| = | — mg.

(5.86)

135

которая так и называется асимметрией. Следует под­

Определение 3. Центральным моментом ц|,г> порядка k случай­

ной величины | называется математическое ожидание k-й степени центрированной случайной величины, соответствующей

=

(5.87)

Математическое ожидание является начальным моментом пер­ вого порядка, дисперсия — центральным моментом второго порядка. Третий центральный момент характеризует асимметрию рас­ пределения относительно математического ожидания. Для удоб­

ства в качестве меры асимметрии принимается безразмерная ве-

,(3)

личина и-

черкнуть, что если множество возможных значений случайной ве­ личины бесконечно, то моменты случайной величины, определяемые как математические ожидания формулами вида (5.79) и (5.80), не существуют в тех случаях, когда ряды или несобственные интегралы фигурирующие в формулах, расходятся.

Свойства математического ожидания и дисперсии.

Свойство 1. Неслучайный множитель С можно вынести за знак математического ожидания:

М[С1] = СМ [g].

Действительно, для дискретной случайной величины

м [С|] - S CxiPi= С%xlPi = СМ [|]. i i

Аналогично, для случайной величины, закон распределения которой задан плотностью вероятности,

+оо

+оо

ЛГ[С£] = J Cxf(x)dx = C J xf(x)dx = CM[t].

— СО

— ОО

Свойство 2. Если g = С с вероятностью 1, ото Л1 [£] = С, от. е.

математическое ожидание не случайной величины равно самой этой величине:

М [С] = С.

. (5.88)

Свойство 3. Математическое ожидание произведения независи­

мых случайных величин \и ц равно произведению их математических ожиданий:

M[lr\] = M[l\M[r\\.

(5.89)

В самом деле, совместная плотность вероятности независимых случайных величин £ и ц равна произведению их частных плотно­

стей вероятностей / (х, у)

=

(х) / 2 (у). Откуда

 

+ 00 +00

 

м [1ц] =

j

J xyfl(x)f%{y)dxdy =

 

— СО — ОО

 

( '+00

\

+00

(5.90)

J хЦ(х)йх)-

J yft (y)dy=M [l]M [т|].

—00

/

—00

 

136

Для дискретных случайных величин свойство доказывается ана­

логично.

Свойство 4. Математическое ожидание суммы случайных вели­ чин равно сумме математических ожиданий слагаемых:

М [Е + т]] = М [Е] + М [т]].

(5.91)

Докажем это свойство для случайных величин, закон распреде­ ления которых задан совместной плотностью вероятности:

-1 - 0 0

+ СО

ЛП1 + т)]= J

j (x + y)f(x, y)dxdy.

— СС — ОО

Так как интеграл от суммы равен сумме интегралов, то

+ 00 + о о

у) dxdy +

+ 0О + с о

М [£ + Т )]= J’ xf(x,J

J

j

yf(x, y)dxdy.

— СО — СО

'

— СО — ОО

Первый двойной интеграл вычислим, интегрируя сначала по у, а затем по х, второй — интегрируя в обратном порядке. Вынесем при этом за знак внутреннего интеграла множитель, не зависящий от переменной интегрирования. В результате получаем:

+ 0 0

+ С О

+ 0 0

+ 0 0

М [£ + 11]= j' xdx

j

fix, y)dy+ J ydy

J f(x, y)dx.

— 0 0

— CO

— 0 0

— CO

Ввиду (5.57) (5.59) внутренний интеграл в первом слагаемом равен частной плотности вероятности f1 (х) случайной величины Е, во втором — частной плотности вероятности f 2 (у) случайной величины т]. Таким образом,

+ 0 О

+ С О

Л1 [g + T|] = J xU(x)dx+

J yf2(y)dy.

— ОО

— ОО

В силу (5.80) последнее равенство равносильно (5.91

Свойство 5. Дисперсия случайной величины равна разности вто­

рого начального момента этой величины и квадрата математиче­ ского ожидания:

D[l] = M [Е2] — (М \l}f = m f —т\.

(5.92)

Д о к а з а т е л ь с т в о . По определению дисперсии

D [ l ] = M [ { l - M [Е])2] = М [Е2- 2 М Ц] I + [Е])2].

Применяя свойство 4, преобразуем последнее выражение к виду

D[l] = M [Е2]— М [2М [Е] I] + М [(Л* [Е])2].

(5.93)

По свойству 1

М [2М [Е] Е] = 2М [Е]М [Е]= 2т\.

По свойству 2

М [{М [Е])2] = [Е])2—т|.

137

Наконец, так как

M [t2]=m\,

то подставляя найденные выражения в (5.93) и производя приведе­ ние подобных членов, убеждаемся в справедливости (5.92).

Свойство 6. Дисперсия произведения неслучайного множителя С и случайной величины Ъ, равна произведению квадрата этого множи­

теля и дисперсии случайной величины ^ т.е. неслучайный множи­

тель С выносится за знак дисперсии в квадрате:

 

D[Ct] = C2D[t].

(5.94)

Имеем по определению

 

D[Cl\ = M [{C l - M [C l ])*].

 

Воспользуемся свойством 1 и преобразуем выражение,

стоящее

в круглых скобках,

 

D [С|] = М [(С1— СМ [£])2] = М [С2 ( 1 - м [£])*].

 

Еще раз применяя свойство 1, вынесем С2 за знак математиче­

ского ожидания. Таким образом, получаем:

 

D [С£] = c m [ ( t - M It])2] = C2D [g],

 

что и требовалось доказать.

Свойство 7. Дисперсия суммы независимых случайных величин

равна сумме их дисперсий:

 

 

 

 

D [t + 4] = D[t]+D[4].

 

(5.95)

Действительно, по свойству 5

 

 

 

D [£ + т]] = М [(1 + г))2] -(Л Г

+ rj])a.

(5.96)

Воспользовавшись свойством 4, получим:

 

 

М [(£ + т])2] =

М [t2] + 2Л4 Itn] + М [г]2];

 

М [£+

т]] = М [£] +

М [г)].

 

Воспользовавшись далее свойством 3 и подставляя полученные

выражения в (5.96), находим:

 

 

 

D [t + л] = М [£2] - (АЩ])2 +

М [л2] — (ЛГ [г]])2,

 

что ввиду свойства 5 доказывает (5.95).

F (х) — функция

рас­

Другие числовые характеристики. Пусть

пределения случайной величины t-

F (х)

= а (ОО <Д )

назы­

Определение 1. Корень

уравнения

вается а квантилью (квантилью порядка а) распределения слу­ чайной величины £.

Определение 2. Квантиль для а = 0,5 называется медианой рас­ пределения. Если хм — медиана распределения S, то

P { t < X « Х - f 1 Р ( 6 > ^ м ) < Т -

138

Медиана и а-квантиль (0 < (а < 4 ) существуют для любой слу­ чайной величины, но иногда определяются неоднозначно.

Определение 3. Модой (модами) закона распределения заданного

плотностью вероятности f (х), называется точка ее максимума (точки максимума).

Вычисление числовых характеристик случайных величин, рас­ пределенных по закону Пуассона. Пусть случайная величина | распределена по закону Пуассона (5.4):

Р(1 = т) = ^ - ё ~ а,

т= О,

1,2, . . . .

 

Вычислим математическое ожидание:

 

 

оо

оо

 

 

 

M { l ] = S ^ mp ( g = . m ) = 2 т

т\

т

(5.97)

т = О

т = О

 

т\

 

 

 

Чтобы вычислить сумму ряда,

стоящего в правой части, рассмот­

 

ОО

 

 

 

рим степенной ряд:

тЛ= О 1т\

 

 

 

-

 

 

 

который сходится на всей числовой оси и его сумма равна:

nmvm

ах

 

а х

 

 

s(*)=S

— = е .

(5.98)

т=0

Применяя теорему о дифференцировании степенных рядов, по­ лучаем:

ОО

т

 

 

 

v m — 1

ах

 

 

х а

 

 

 

т ------------= ае .

 

 

ml

 

 

 

 

т—О

 

 

 

 

Положив х = I, находим, что

 

 

 

 

ОО

 

ОО

 

 

 

 

т -

: ае

(5.99)

 

 

т\

 

 

т ~ О

 

О

 

 

Подставляя сумму последнего ряда в (5.97), видим, что матема­ тическое ожидание случайной величины, распределенной по закону Пуассона, равно

М[1\ = а.

(5.100)

* См. [4], формула (3.34), стр. 95.

13»

Соседние файлы в папке книги из ГПНТБ