Добавил:
Upload Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:

Обработка эксперим данных Роганов

.pdf
Скачиваний:
22
Добавлен:
22.05.2015
Размер:
1.37 Mб
Скачать

1.

Нормальное распределение,

X N (a,σ 2 ).

Так как МХ = а, то

получаем

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

1

 

 

(xa)2

 

σ 2

 

t2

 

DX =

 

(x a)2e

2σ 2 dx =

t2e

 

dt =

 

 

2

 

 

σ

2π

−∞

 

 

 

 

 

2π

−∞

 

 

 

 

 

 

= σ

2 te

t2

 

σ 2

t2

 

 

 

 

 

 

 

 

 

+

e

 

dt =σ 2

 

 

 

 

 

 

2

 

2

 

 

 

 

 

 

2π

−∞

 

2π

−∞

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

Таким образом, параметры нормального распределения N (a,σ 2 ): а

математическое ожидание,

σ2

дисперсия. Нормальное распределение

полностью определяется этими двумя параметрами.

 

 

 

2.Распределение Пуассона:

X = k,

 

(X = k )= eλλk

/ k!, λ > 0 , k=0, 1, 2, …. Было показано, что

P

МХ = λ . Используя формулу DX = MX 2 (MX )2

, получаем

 

 

 

 

 

 

k

λ

 

 

 

 

 

 

 

k

 

 

k

 

 

DX = k2 λ e

 

λ2 = eλ k(k

1)λ

 

+eλ k

λ

λ2

=

 

 

k =0

 

 

 

k!

 

 

 

k =0

 

 

k!

 

k =0

k!

 

 

 

 

 

λ

2 d 2

 

λk

 

λ

 

d

 

 

λk

2

 

 

 

 

= e

 

λ

 

 

 

 

 

+ e

 

λ

 

 

λ =

 

 

 

 

 

 

 

2

 

dλ

 

 

 

 

 

 

 

 

dλ

k =0

k!

 

 

 

k =0

k!

 

 

 

= eλ (λ2eλ +λeλ )λ2 = λ

Таким образом, единственный параметр распределения Пуассона задает как математическое ожидание, так и дисперсию.

§2. Свойства математического ожидания и дисперсии

1)Математическое ожидание суммы случайных величин равно сумме математических ожиданий

M (X +Y )= MX + MY

при условии, что МХ и M Y конечны [9].

61

Доказательство. а) (X, Y) – дискретная случайная величина. Пусть Х

принимает значения

х1, х2 , ...,

 

а Y

значения у1, у2 ,

.... Тогда X+Y

принимает значения z1, z2 , ... , где все zs различны,

zs = xi + y j , а

 

 

rs = P(X +Y = zs )= pij

 

 

 

 

 

 

i, j:xi +y j =zs

 

где pij = P(X = xi ,Y = y j ). Поэтому

 

 

 

 

 

 

 

(xi + y j

 

M (X +Y )= zs rs = zs

pij

=

)pij =

 

s=1

s=1

i, j:xi +y j =zs

s=1 i, j:xi +y j =zs

 

 

= (xi + y j )pij = xi pij + y j pij = xi pi + y j q j = MX + MY

i, j=1

i=1

j=1

j=1

i=1

i=1

j=1

 

 

 

= P(Y = y j )= qj ;

 

 

здесь pij = P(X = xi )= pi

и pij

 

 

j=1

 

i=1

 

 

 

 

 

ряды можно группировать в силу леммы и обратной леммы о суммировании по блокам, так как ряды по условию сходятся абсолютно.

б) (X,Y) – непрерывная случайная величина, р(х, у) – ее плотность

вероятности. Тогда плотность суммы Z=X+Y имеет вид pZ (z)= p(x, z x)dx .

−∞

Поэтому

M (X +Y )= zpZ (z)dz = zp(x, z x)dxdz =

(x + y)p(x, y)dxdy =

−∞

 

−∞−∞

−∞−∞

= xdx p(x, y)dy +

ydy p(x, y)dx = xpX (x)dx + ypY (y)dy = MX + MY ,

−∞ −∞

−∞ −∞

−∞

−∞

интегралы можно переставить в силу их абсолютной сходимости. Свойство 1) доказано.

2) Из следствия из теоремы 1 и свойства 1) получаем свойство линейности математического ожидания:

M (c1 X + c2Y )= c1MX + c2 MY

c1, c2 — любые постоянные, если МХ и M Y конечны.

62

3)Если случайные величины Х и Y независимы, то

MXY = MX MY

при условии, что МХ и M Y конечны.

 

Доказательство.

 

 

 

 

 

 

 

 

 

 

 

а) XY – дискретная случайная величина со значениями

t1, t2 , ..., где

все

ts

различны,

ts = xiy j

и

rs = P(XY = ts )=

pij , причем

 

 

 

 

 

 

 

 

 

 

 

i, j:xi y j =ts

pij

= P(X = xi ,Y = y j )= pi q j , так как Х и Y независимы. Поэтому

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

=

 

 

MXY = ts rs = ts

 

pi q j

=

xi y j pi q j

 

 

s=1

s=1

i, j:xi y j =ts

s=1

i, j:xi y j =ts

 

 

 

 

 

 

 

 

 

 

 

 

 

 

= xiy jpiq j =

xipi y jq j

= MX MY,

 

 

 

 

i,j=1

 

 

i=1

j=1

 

 

 

 

 

группировка рядов законна в силу их абсолютной сходимости и леммы о суммировании по блокам.

б) Плотность произведения Z=XY имеет следующий вид (с учетом того,

что p(x, y)= pX (x)pY (y) в силу независимости Х и Y):

 

 

 

0 1

 

 

 

z

 

 

1

 

 

 

 

z

 

 

 

p

 

(z)= −

p

 

(x)p

 

 

dx +

0

x

p

 

(x)p

 

dx

 

 

 

 

 

 

 

 

 

 

 

 

Z

 

−∞x

 

X

Y

x

 

 

 

X

 

 

Y x

 

 

 

Отсюда

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

0 1

 

 

 

 

z

 

 

1

 

 

z

MXY = z pZ (z)dz = −

pX (x)dx zpY

 

dz +

x

pX (x)dx zpY

 

dz =

 

 

−∞

 

 

−∞ x

 

 

 

−∞

 

x

 

 

0

 

 

−∞

x

= 0 1 pX (x)dx tx2 pY (t)dt +

1 pX (x)dx tx2 pY (t)dt =

 

 

 

−∞ x

−∞

 

 

 

 

 

0

x

 

 

 

 

 

−∞

 

 

 

 

 

 

 

 

 

= xpX (x)dx tpY (t)dt = MX MY

 

 

 

 

 

 

 

 

−∞

 

 

−∞

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

перестановки интегралов законны в силу их абсолютной сходимости. 4) Некоторые неравенства.

а) Если X Y , то MX MY .

63

Действительно, случайная величина Z неотрицательные значения, поэтому согласно неравенство справедливо.

б) Неравенство Коши-Буняковского:

= X Y принимает определению 1 (с k=1)

M XY MX2 MY2 ,

если величины справа конечны.

Доказательство. Имеем XY 1/ 2(X 2 +Y 2 ). Отсюда и из неравенства из а) следует, что если МХ2 и MY2 конечны, то конечно и M XY . Далее при любом λ

0 M (λ X + Y )2 = λ2 MX 2 + 2λM XY + MY 2

Квадратный трехчлен относительно λ неотрицателен при всех λ ,

стало быть, его дискриминант неположителен, т.е. M XY 2 MX 2 MY 2 0 ,

что и требовалось доказать.

в) Неравенство Чебышева. Для любого ε > 0

P(X >ε)M X 2 / ε2 ,

если M Х2 конечно.

Доказательство. Введем случайную величину Y по формуле

0, если Х ε Y = ε, если Х > ε

Таким образом, Y – дискретная случайная величина, принимающая два значения: 0 с вероятностью p1 = P(X ε) и ε с вероятностью P(X > ε). Из определения Y следует, что Y2 Х2 , и в силу неравенства из а) получаем

M X 2 MY 2 =ε2 P(X >ε), что и требовалось доказать.

64

Взяв в

неравенстве P(

 

X

 

>ε)M

 

X

 

2 / ε2 , вместо Х случайную

 

 

 

 

величину Х

МХ и учитывая, что M (X MX )2 = DX , запишем последнее

неравенство в виде

 

P(

 

X MX

 

>ε)DX / ε2 ,

 

 

 

именно это неравенство обычно называют неравенством Чебышева.

То же рассуждение с использованием случайной величины Y, определенной в доказательстве неравенства Чебышева, и неравенства а)

приводит к неравенству: для любого ε > 0 P(X >ε)ε1 M X , если МХ

конечно и, в частности, если случайная величина Х неотрицательна, то

P(X >ε)ε1 MX

5)Дисперсия постоянной равна нулю: Dc = 0, так как

Dc = M (c Mc)2 = M (c c)2 = 0

Верно и обратное утверждение: если DX = 0, то с вероятностью 1 Х равна константе: Х = МХ. Действительно, в силу неравенства Чебышева при любом ε > 0 P(X MX >ε). Поэтому на основании полной аддитивности вероятности, получим

P(X MX > 0)= P(X MX >1)+ P(1/ 2 < X MX 1)+... +

+ P(1/ 2k < X MX 1/ 2k 1 )+... = 0

и, таким образом, P{X – MX = 0} = 1.

6) Если Y = cX, то DY = c2DX , с – любая постоянная. Действительно,

DY = M (cX McX )2 = M [c2 (X MX )2 ]= c2 DX .

7) Дисперсия суммы конечного числа попарно независимых случайных величин равна сумме дисперсий слагаемых

65

 

 

 

n

 

 

n

 

 

 

 

 

 

D X i

= DX i

 

 

 

 

 

i=1

 

 

i=1

 

 

 

Действительно,

 

 

 

 

 

 

 

n

 

n

n

 

2

=

n

 

2

D X i

= M X i M X i

 

M (X i MXi

)

=

i=1

 

i=1

i=1

 

 

i=1

 

 

n

 

 

 

n

 

 

 

 

 

= M (X i MX i )(X k MX k )

= M [(X i MX i )(X k MX k )]=

i,k=1

 

 

 

i,k =1

 

 

 

 

n

 

2

n

 

 

 

n

 

 

= M (X i MXi )

+ M (X i MXi )(X k MX k )= DXi

i=1

 

 

i, k =1

 

 

 

i=1

 

 

ik

при доказательстве мы несколько раз пользовались свойством 1), в

предпоследнем равенстве учли независимость Xi и Xk при i k и свойство

3), а последнее равенство основано на том, что M (X i MX i )= MXi MX i = 0 .

Равенство

 

n

 

n

иногда называют равенством Бьенеме. [9]

D

X i

= DX i

 

i=1

 

i=1

 

Пример.

Пусть

случайная величина Х распределена по

биномиальному закону. Найдем МХ и DX. Введем случайные величины Xk ,

равные числу успехов при k–м эксперименте в серии из n испытаний Бернулли. Если вероятность успеха при каждом испытании равна р, то Xk

принимает

два значения

0

и

1

с

вероятностями

P(X k =1)= p

и

P(X k = 0)= q =1 p , k = 1, 2, …, n.

 

 

 

 

 

 

 

 

Поэтому MXk =1 p +0 q = p , DX k

= MX k2 (MX k )2

=1 p +0 q p2 = p p2 = pq .

Число

успехов Х в

серии

из

n

испытаний

равно

сумме

X = X1 + X2 +...+Xn . Отсюда

ввиду

независимости Xi и

свойств

1) и

7)

получаем

 

 

 

 

 

 

 

 

 

 

 

n

 

 

 

 

 

n

 

 

 

 

MX = MXk = pn, DX = DXk = npq.

 

 

 

k=1

 

 

 

 

k=1

 

 

 

66

§ 3. Условное математическое ожидание

Ранее была

определена условная функция распределения

F (x / B)= P(X < x / B)

случайной величины Х при условии В, если P(B) > 0 [9].

Математическое ожидание (или среднее значение) Х по отношению к этому условному распределению называется условным математическим ожиданием. Таким образом

M (X / B)= xdFX (x / B)

−∞

или подробно

M (X / B)= xk pk (B)

k=1

если Х дискретна, xk — ее значения, а pk (B)= P(X = xk / B) — соответствующие вероятности, k = 1, 2, …; и

M (X / B)= xp(x / B)dx

−∞

если Х непрерывна, p(x / B) — условная плотность вероятности. В частности,

если событие В состоит в том, что случайная величина Y принимает некоторое значение у, Y=y, тогда согласно формулам плотности условного распределения получим

M (X / y j )= M (X /Y = y j )=

xk Pk / j

(7)

k=1

 

 

для дискретных случайных величин, и

 

 

M (X / y)= M (X /Y = y)= xpX (x / y)dx

(8)

−∞

 

 

для непрерывных случайных величин.

Очевидно, что таким образом определенные условные математические ожидания обладают всеми свойствами 1) – 4) обычных математических ожиданий, однако у них имеются и некоторые специфические свойства, связанные с возможностью применения к ним различных вариантов формулы

67

полной вероятности. Так, если имеется полная группа попарно несовместных событий Bk , k=1, 2, …, n, и FX (x / Bk ) — соответствующие условные функции распределения, то ввиду равенства

n

FX (x)= FX (x / Bk )P(Bk )

k =1

получаем

n

MX = P(Bk )(X / Bk )

k=1

Поскольку правая часть этого равенства имеет вид математического ожидания новой дискретной случайной величины, принимающей значения

M (X / Bk ) с вероятностями P(Bk ), то естественно записать последнее равенство в виде

MX = M (M (X / Bk ))

Точно так же получаются равенства:

MX = M (X / y j )q j

j=1

в дискретном случае и

MX = M (X / y)pY (y)dy

−∞

в непрерывном.

Действительно, в первом случае умножим равенство (7) на q j и

просуммируем по всем j, получим

∞ ∞

M (X / y j

)q j = ∑∑xk pkj = xk pk = MX

j=1

j=1 k =1

k =1

Во втором случае умножаем (8) на pY (y) и интегрируем от −∞ до

M (X / y)pY (y)dy =

dy

xpY (y)pX (x)dx = xdx p(x, y)dy =

xpX (x)dx = MX

−∞

−∞

−∞

−∞

−∞

−∞

Проведенные

выкладки

оправданы

при условии,

что ряд (7) или

интеграл (8) сходятся абсолютно [9].

68

MX =1 P(A)+0 P(A)= P(A).

Рассмотрим теперь условные математические ожидания M (X / y j )

или M (X / y), определенные формулами (7) или (8), как функции аргумента у. Этот аргумент – значения случайной величины Y, и поэтому мы можем рассматривать M (X / y j ) или M (X / y) как новую случайную величину,

зависящую определенным образом от Y, и обозначать ее M (X / y). При таком подходе правые части равенств для условного математического ожидания означают в силу теоремы 1 математическое ожидание функции M (X / y) от случайной величины Х и, следовательно, могут быть записаны в виде

MX = M (M (X /Y ))

Эта формула и формула MX = M (M (X / Bk )) находят многочисленные применения в теории вероятностей и математической статистике.

Условное математическое ожидание M (X / y), рассматриваемое как функция Y, часто в статистике называется функцией регрессии величины Х на

Y. Если, например, M (X /Y )=α1Y +α2 , то говорят о линейной регрессии Х на

Y, а α1 и α2 называют коэффициентами регрессии.

Рассмотрим случайную величину Х, являющуюся индикатором события А:

X (ω)= 1,

ω A, т.е. если А происходит

0,

ω A, т.е. если А не происходит

Х – дискретная случайная величина,

Итак, МХ = Р(А) и условная вероятность M(X/Y) = P(A/Y), где P(A/Y) – условная вероятность события А при данном значении Y. Равенство

MX = M (M (X /Y )) в этом случае выглядит так: P(A) = M{P(A/Y)}.

§ 4. Моменты векторных случайных величин

Перейдем к изучению моментов многомерных случайных величин. Специфические свойства моментов векторных случайных величин связаны с зависимостью координат случайного вектора.

69

Определение 4. Математическим ожиданием вектора

X = (X1, ..., X n ) называется вектор

MX = (MX1, ..., MXn ),

составленный из математических ожиданий координат.

Дисперсией вектора X = (X1 , ..., X n ) называется вектор

DX = (DX1, ..., DX n )

составленный из дисперсий координат.

Для многомерных случайных величин справедлив аналог теоремы 1,

так что, например, если f (x1 , ..., xn ) — произвольная функция такая, что Y = f(X) – новая случайная величина, то

MY = Mf (x)= ... f (x1, ..., xn )p(x1, ..., xn )dx1, ..., dxn

−∞ −∞

при условии, что этот интеграл сходится абсолютно (здесь p(x1, ..., xn )

плотность вероятности случайного вектора X = (X1 , ..., X n ). В частности,

 

n

 

 

n

M

ak

X k

= M (a, X )= ak MX k = (a, MX )

k =1

 

 

k =1

где a = (a1 , ..., an ) и ( ,

) –

знак

скалярного произведения в Rn , а если

координаты Х независимы в совокупности, то

M (X1, ..., X n )= MX1, ..., MXn

Важной характеристикой n-мерной случайной величины Х является так называемая матрица ковариаций, или дисперсионная матрица:

aij = cov X i X j M [(X i MXi )(X j MX j )]= MXi X j MXi MX j

i, j = 1, … , n.

На главной диагонали в матрице ковариаций стоят дисперсии: aii = DXi; aij = a ji называется также корреляционным моментом случайных

величин Xi и X j . В силу определения дисперсионной матрицы ясно, что

если Xi и X j независимы, то aij cov XiX j = 0 . Таким образом, условие

70