Обработка эксперим данных Роганов
.pdf1. |
Нормальное распределение, |
X N (a,σ 2 ). |
Так как МХ = а, то |
||||||||||||
получаем |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
1 |
∞ |
|
|
(x−a)2 |
|
σ 2 |
∞ |
|
t2 |
|||
|
DX = |
|
∫(x − a)2e− |
2σ 2 dx = |
∫t2e− |
|
dt = |
||||||||
|
|
2 |
|||||||||||||
|
|
σ |
2π |
−∞ |
|
|
|
|
|
2π |
−∞ |
|
|
|
|
|
|
|
= σ |
2 te− |
t2 |
∞ |
|
σ 2 |
∞ |
t2 |
|
|
|
|
|
|
|
|
|
|
+ |
∫e− |
|
dt =σ 2 |
|
|
|
||||
|
|
|
2 |
|
2 |
|
|
|
|||||||
|
|
|
2π |
−∞ |
|
2π |
−∞ |
|
|
|
|
|
|
||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
Таким образом, параметры нормального распределения N (a,σ 2 ): а – |
|||||||||||||||
математическое ожидание, |
σ2 |
— |
дисперсия. Нормальное распределение |
||||||||||||
полностью определяется этими двумя параметрами. |
|
|
|
2.Распределение Пуассона:
X = k, |
|
(X = k )= e−λλk |
/ k!, λ > 0 , k=0, 1, 2, …. Было показано, что |
|||||||||||||||||||
P |
||||||||||||||||||||||
МХ = λ . Используя формулу DX = MX 2 −(MX )2 |
, получаем |
|
|
|||||||||||||||||||
|
|
∞ |
|
|
k |
−λ |
|
|
|
∞ |
|
|
|
|
k |
|
|
∞ |
k |
|
|
|
DX = ∑k2 λ e |
|
− λ2 = e−λ ∑k(k |
−1)λ |
|
+e−λ ∑k |
λ |
−λ2 |
= |
||||||||||||||
|
|
k =0 |
|
|
|
k! |
|
|
|
k =0 |
|
|
k! |
|
k =0 |
k! |
|
|
||||
|
|
|
−λ |
2 d 2 |
|
∞ |
λk |
|
−λ |
|
d |
|
∞ |
|
λk |
2 |
|
|
||||
|
|
= e |
|
λ |
|
|
|
|
∑ |
|
+ e |
|
λ |
|
|
∑ |
− λ = |
|
|
|||
|
|
|
|
|
2 |
|
dλ |
|
|
|||||||||||||
|
|
|
|
|
|
dλ |
k =0 |
k! |
|
|
|
k =0 |
k! |
|
|
|
= e−λ (λ2eλ +λeλ )−λ2 = λ
Таким образом, единственный параметр распределения Пуассона задает как математическое ожидание, так и дисперсию.
§2. Свойства математического ожидания и дисперсии
1)Математическое ожидание суммы случайных величин равно сумме математических ожиданий
M (X +Y )= MX + MY
при условии, что МХ и M Y конечны [9].
61
Доказательство. а) (X, Y) – дискретная случайная величина. Пусть Х
принимает значения |
х1, х2 , ..., |
|
а Y – |
значения у1, у2 , |
.... Тогда X+Y |
||
принимает значения z1, z2 , ... , где все zs различны, |
zs = xi + y j , а |
||||||
|
|
rs = P(X +Y = zs )= ∑pij |
|
||||
|
|
|
|
|
i, j:xi +y j =zs |
|
|
где pij = P(X = xi ,Y = y j ). Поэтому |
|
|
|
|
|||
|
∞ |
∞ |
|
|
∞ |
∑(xi + y j |
|
M (X +Y )= ∑zs rs = ∑zs |
∑ pij |
= ∑ |
)pij = |
||||
|
s=1 |
s=1 |
i, j:xi +y j =zs |
s=1 i, j:xi +y j =zs |
|
||
∞ |
∞ |
∞ |
∞ |
∞ |
∞ |
∞ |
|
= ∑(xi + y j )pij = ∑xi ∑pij + ∑y j ∑pij = ∑xi pi + ∑y j q j = MX + MY |
|||||||
i, j=1 |
i=1 |
j=1 |
j=1 |
i=1 |
i=1 |
j=1 |
|
∞ |
|
∞ |
|
= P(Y = y j )= qj ; |
|
|
|
здесь ∑pij = P(X = xi )= pi |
и ∑pij |
|
|
||||
j=1 |
|
i=1 |
|
|
|
|
|
ряды можно группировать в силу леммы и обратной леммы о суммировании по блокам, так как ряды по условию сходятся абсолютно.
б) (X,Y) – непрерывная случайная величина, р(х, у) – ее плотность
вероятности. Тогда плотность суммы Z=X+Y имеет вид pZ (z)= ∞∫p(x, z − x)dx .
−∞
Поэтому
M (X +Y )= ∞∫zpZ (z)dz = ∞∫ ∞∫zp(x, z − x)dxdz = |
∞∫ ∞∫(x + y)p(x, y)dxdy = |
||
−∞ |
|
−∞−∞ |
−∞−∞ |
= ∞∫xdx ∞∫ p(x, y)dy + |
∞∫ydy ∞∫ p(x, y)dx = ∞∫xpX (x)dx + ∞∫ypY (y)dy = MX + MY , |
||
−∞ −∞ |
−∞ −∞ |
−∞ |
−∞ |
интегралы можно переставить в силу их абсолютной сходимости. Свойство 1) доказано.
2) Из следствия из теоремы 1 и свойства 1) получаем свойство линейности математического ожидания:
M (c1 X + c2Y )= c1MX + c2 MY
c1, c2 — любые постоянные, если МХ и M Y конечны.
62
3)Если случайные величины Х и Y независимы, то
MXY = MX MY
при условии, что МХ и M Y конечны.
|
Доказательство. |
|
|
|
|
|
|
|
|
|
|
|
|
а) XY – дискретная случайная величина со значениями |
t1, t2 , ..., где |
||||||||||
все |
ts |
различны, |
ts = xiy j |
и |
rs = P(XY = ts )= |
∑ pij , причем |
||||||
|
|
|
|
|
|
|
|
|
|
|
i, j:xi y j =ts |
|
pij |
= P(X = xi ,Y = y j )= pi q j , так как Х и Y независимы. Поэтому |
|||||||||||
|
|
∞ |
∞ |
|
|
|
|
∞ |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
= |
|
|
MXY = ∑ts rs = ∑ts |
|
∑pi q j |
= ∑ |
∑xi y j pi q j |
||||||
|
|
s=1 |
s=1 |
i, j:xi y j =ts |
s=1 |
i, j:xi y j =ts |
|
|
||||
|
|
∞ |
|
|
|
∞ |
∞ |
|
|
|
|
|
|
|
= ∑xiy jpiq j = |
∑xipi ∑y jq j |
= MX MY, |
|
|
||||||
|
|
i,j=1 |
|
|
i=1 |
j=1 |
|
|
|
|
|
группировка рядов законна в силу их абсолютной сходимости и леммы о суммировании по блокам.
б) Плотность произведения Z=XY имеет следующий вид (с учетом того,
что p(x, y)= pX (x)pY (y) в силу независимости Х и Y):
|
|
|
0 1 |
|
|
|
z |
|
|
∞ |
1 |
|
|
|
|
z |
|
|
|
||||
p |
|
(z)= − |
p |
|
(x)p |
|
|
dx + |
∫0 |
x |
p |
|
(x)p |
|
dx |
|
|
|
|||||
|
|
|
|
|
|
|
|
||||||||||||||||
|
Z |
|
−∞∫ x |
|
X |
Y |
x |
|
|
|
X |
|
|
Y x |
|
|
|
||||||
Отсюда |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
∞ |
|
|
0 1 |
|
|
|
∞ |
|
z |
|
|
∞ |
1 |
|
|
∞ |
z |
||||||
MXY = ∫z pZ (z)dz = − ∫ |
pX (x)dx ∫zpY |
|
dz + ∫ |
x |
pX (x)dx ∫zpY |
|
dz = |
||||||||||||||||
|
|
||||||||||||||||||||||
−∞ |
|
|
−∞ x |
|
|
|
−∞ |
|
x |
|
|
0 |
|
|
−∞ |
x |
|||||||
= ∫0 1 pX (x)dx ∞∫tx2 pY (t)dt + ∞∫ |
1 pX (x)dx ∞∫tx2 pY (t)dt = |
|
|
|
|||||||||||||||||||
−∞ x |
−∞ |
|
|
|
|
|
0 |
x |
|
|
|
|
|
−∞ |
|
|
|
|
|
|
|||
|
|
|
= ∞∫xpX (x)dx ∞∫tpY (t)dt = MX MY |
|
|
|
|
|
|||||||||||||||
|
|
|
−∞ |
|
|
−∞ |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
перестановки интегралов законны в силу их абсолютной сходимости. 4) Некоторые неравенства.
а) Если X ≥ Y , то MX ≥ MY .
63
Действительно, случайная величина Z неотрицательные значения, поэтому согласно неравенство справедливо.
б) Неравенство Коши-Буняковского:
= X – Y принимает определению 1 (с k=1)
M XY ≤ MX2 MY2 ,
если величины справа конечны.
Доказательство. Имеем XY ≤1/ 2(X 2 +Y 2 ). Отсюда и из неравенства из а) следует, что если МХ2 и MY2 конечны, то конечно и M XY . Далее при любом λ
0 ≤ M (λ X + Y )2 = λ2 MX 2 + 2λM XY + MY 2
Квадратный трехчлен относительно λ неотрицателен при всех λ ,
стало быть, его дискриминант неположителен, т.е. M XY 2 − MX 2 MY 2 ≤ 0 ,
что и требовалось доказать.
в) Неравенство Чебышева. Для любого ε > 0
P(X >ε)≤ M X 2 / ε2 ,
если M Х2 конечно.
Доказательство. Введем случайную величину Y по формуле
0, если Х ≤ ε Y = ε, если Х > ε
Таким образом, Y – дискретная случайная величина, принимающая два значения: 0 с вероятностью p1 = P(X ≤ ε) и ε с вероятностью P(X > ε). Из определения Y следует, что Y2 ≤ Х2 , и в силу неравенства из а) получаем
M X 2 ≥ MY 2 =ε2 P(X >ε), что и требовалось доказать.
64
Взяв в |
неравенстве P( |
|
X |
|
>ε)≤ M |
|
X |
|
2 / ε2 , вместо Х случайную |
||||
|
|
|
|
||||||||||
величину Х – |
МХ и учитывая, что M (X −MX )2 = DX , запишем последнее |
||||||||||||
неравенство в виде |
|||||||||||||
|
P( |
|
X − MX |
|
>ε)≤ DX / ε2 , |
||||||||
|
|
|
именно это неравенство обычно называют неравенством Чебышева.
То же рассуждение с использованием случайной величины Y, определенной в доказательстве неравенства Чебышева, и неравенства а)
приводит к неравенству: для любого ε > 0 P(X >ε)≤ ε1 M X , если МХ
конечно и, в частности, если случайная величина Х неотрицательна, то
P(X >ε)≤ ε1 MX
5)Дисперсия постоянной равна нулю: Dc = 0, так как
Dc = M (c −Mc)2 = M (c −c)2 = 0
Верно и обратное утверждение: если DX = 0, то с вероятностью 1 Х равна константе: Х = МХ. Действительно, в силу неравенства Чебышева при любом ε > 0 P(X − MX >ε). Поэтому на основании полной аддитивности вероятности, получим
P(X − MX > 0)= P(X − MX >1)+ P(1/ 2 < X − MX ≤1)+... +
+ P(1/ 2k < X − MX ≤1/ 2k −1 )+... = 0
и, таким образом, P{X – MX = 0} = 1.
6) Если Y = cX, то DY = c2DX , с – любая постоянная. Действительно,
DY = M (cX −McX )2 = M [c2 (X −MX )2 ]= c2 DX .
7) Дисперсия суммы конечного числа попарно независимых случайных величин равна сумме дисперсий слагаемых
65
|
|
|
n |
|
|
n |
|
|
|
|
|
|
D ∑X i |
= ∑DX i |
|
|
|||
|
|
|
i=1 |
|
|
i=1 |
|
|
|
Действительно, |
|
|
|
|
|
|
|
||
n |
|
n |
n |
|
2 |
= |
n |
|
2 |
D ∑X i |
= M ∑X i − M ∑X i |
|
M ∑(X i − MXi |
) |
= |
||||
i=1 |
|
i=1 |
i=1 |
|
|
i=1 |
|
|
|
n |
|
|
|
n |
|
|
|
|
|
= M ∑(X i − MX i )(X k − MX k ) |
= ∑M [(X i − MX i )(X k − MX k )]= |
||||||||
i,k=1 |
|
|
|
i,k =1 |
|
|
|
|
|
n |
|
2 |
n |
|
|
|
n |
|
|
= ∑M (X i − MXi ) |
+ ∑M (X i − MXi )(X k − MX k )= ∑DXi |
||||||||
i=1 |
|
|
i, k =1 |
|
|
|
i=1 |
|
|
i≠k
при доказательстве мы несколько раз пользовались свойством 1), в
предпоследнем равенстве учли независимость Xi и Xk при i ≠ k и свойство
3), а последнее равенство основано на том, что M (X i − MX i )= MXi − MX i = 0 .
Равенство |
|
n |
|
n |
иногда называют равенством Бьенеме. [9] |
D |
∑X i |
= ∑DX i |
|||
|
i=1 |
|
i=1 |
|
|
Пример. |
Пусть |
случайная величина Х распределена по |
биномиальному закону. Найдем МХ и DX. Введем случайные величины Xk ,
равные числу успехов при k–м эксперименте в серии из n испытаний Бернулли. Если вероятность успеха при каждом испытании равна р, то Xk
принимает |
два значения |
0 |
и |
1 |
с |
вероятностями |
P(X k =1)= p |
и |
||
P(X k = 0)= q =1 − p , k = 1, 2, …, n. |
|
|
|
|
|
|
|
|
||
Поэтому MXk =1 p +0 q = p , DX k |
= MX k2 −(MX k )2 |
=1 p +0 q − p2 = p − p2 = pq . |
||||||||
Число |
успехов Х в |
серии |
из |
n |
испытаний |
равно |
сумме |
|||
X = X1 + X2 +...+Xn . Отсюда |
ввиду |
независимости Xi и |
свойств |
1) и |
7) |
|||||
получаем |
|
|
|
|
|
|
|
|
|
|
|
n |
|
|
|
|
|
n |
|
|
|
|
MX = ∑MXk = pn, DX = ∑DXk = npq. |
|
|
|||||||
|
k=1 |
|
|
|
|
k=1 |
|
|
|
66
§ 3. Условное математическое ожидание
Ранее была |
определена условная функция распределения |
F (x / B)= P(X < x / B) |
случайной величины Х при условии В, если P(B) > 0 [9]. |
Математическое ожидание (или среднее значение) Х по отношению к этому условному распределению называется условным математическим ожиданием. Таким образом
M (X / B)= ∞∫xdFX (x / B)
−∞
или подробно
∞
M (X / B)= ∑xk pk (B)
k=1
если Х дискретна, xk — ее значения, а pk (B)= P(X = xk / B) — соответствующие вероятности, k = 1, 2, …; и
∞
M (X / B)= ∫xp(x / B)dx
−∞
если Х непрерывна, p(x / B) — условная плотность вероятности. В частности,
если событие В состоит в том, что случайная величина Y принимает некоторое значение у, Y=y, тогда согласно формулам плотности условного распределения получим
M (X / y j )= M (X /Y = y j )= ∑∞ |
xk Pk / j |
(7) |
k=1 |
|
|
для дискретных случайных величин, и |
|
|
M (X / y)= M (X /Y = y)= ∞∫xpX (x / y)dx |
(8) |
|
−∞ |
|
|
для непрерывных случайных величин.
Очевидно, что таким образом определенные условные математические ожидания обладают всеми свойствами 1) – 4) обычных математических ожиданий, однако у них имеются и некоторые специфические свойства, связанные с возможностью применения к ним различных вариантов формулы
67
полной вероятности. Так, если имеется полная группа попарно несовместных событий Bk , k=1, 2, …, n, и FX (x / Bk ) — соответствующие условные функции распределения, то ввиду равенства
n
FX (x)= ∑FX (x / Bk )P(Bk )
k =1
получаем
n
MX = ∑P(Bk )(X / Bk )
k=1
Поскольку правая часть этого равенства имеет вид математического ожидания новой дискретной случайной величины, принимающей значения
M (X / Bk ) с вероятностями P(Bk ), то естественно записать последнее равенство в виде
MX = M (M (X / Bk ))
Точно так же получаются равенства:
MX = ∑∞ M (X / y j )q j
j=1
в дискретном случае и
MX = ∞∫M (X / y)pY (y)dy
−∞
в непрерывном.
Действительно, в первом случае умножим равенство (7) на q j и
просуммируем по всем j, получим
∞ |
∞ ∞ |
∞ |
∑M (X / y j |
)q j = ∑∑xk pkj = ∑xk pk = MX |
|
j=1 |
j=1 k =1 |
k =1 |
Во втором случае умножаем (8) на pY (y) и интегрируем от −∞ до ∞ |
∞∫M (X / y)pY (y)dy = |
∞∫dy |
∞∫xpY (y)pX (x)dx = ∞∫xdx ∞∫ p(x, y)dy = |
∞∫xpX (x)dx = MX |
||
−∞ |
−∞ |
−∞ |
−∞ |
−∞ |
−∞ |
Проведенные |
выкладки |
оправданы |
при условии, |
что ряд (7) или |
интеграл (8) сходятся абсолютно [9].
68
Рассмотрим теперь условные математические ожидания M (X / y j )
или M (X / y), определенные формулами (7) или (8), как функции аргумента у. Этот аргумент – значения случайной величины Y, и поэтому мы можем рассматривать M (X / y j ) или M (X / y) как новую случайную величину,
зависящую определенным образом от Y, и обозначать ее M (X / y). При таком подходе правые части равенств для условного математического ожидания означают в силу теоремы 1 математическое ожидание функции M (X / y) от случайной величины Х и, следовательно, могут быть записаны в виде
MX = M (M (X /Y ))
Эта формула и формула MX = M (M (X / Bk )) находят многочисленные применения в теории вероятностей и математической статистике.
Условное математическое ожидание M (X / y), рассматриваемое как функция Y, часто в статистике называется функцией регрессии величины Х на
Y. Если, например, M (X /Y )=α1Y +α2 , то говорят о линейной регрессии Х на
Y, а α1 и α2 называют коэффициентами регрессии.
Рассмотрим случайную величину Х, являющуюся индикатором события А:
X (ω)= 1, |
ω A, т.е. если А происходит |
0, |
ω A, т.е. если А не происходит |
Х – дискретная случайная величина,
Итак, МХ = Р(А) и условная вероятность M(X/Y) = P(A/Y), где P(A/Y) – условная вероятность события А при данном значении Y. Равенство
MX = M (M (X /Y )) в этом случае выглядит так: P(A) = M{P(A/Y)}.
§ 4. Моменты векторных случайных величин
Перейдем к изучению моментов многомерных случайных величин. Специфические свойства моментов векторных случайных величин связаны с зависимостью координат случайного вектора.
69
Определение 4. Математическим ожиданием вектора
X = (X1, ..., X n ) называется вектор
MX = (MX1, ..., MXn ),
составленный из математических ожиданий координат.
Дисперсией вектора X = (X1 , ..., X n ) называется вектор
DX = (DX1, ..., DX n )
составленный из дисперсий координат.
Для многомерных случайных величин справедлив аналог теоремы 1,
так что, например, если f (x1 , ..., xn ) — произвольная функция такая, что Y = f(X) – новая случайная величина, то
MY = Mf (x)= ∞∫... ∞∫ f (x1, ..., xn )p(x1, ..., xn )dx1, ..., dxn
−∞ −∞
при условии, что этот интеграл сходится абсолютно (здесь p(x1, ..., xn ) —
плотность вероятности случайного вектора X = (X1 , ..., X n ). В частности,
|
n |
|
|
n |
M |
∑ak |
X k |
= M (a, X )= ∑ak MX k = (a, MX ) |
|
k =1 |
|
|
k =1 |
|
где a = (a1 , ..., an ) и ( , |
) – |
знак |
скалярного произведения в Rn , а если |
координаты Х независимы в совокупности, то
M (X1, ..., X n )= MX1, ..., MXn
Важной характеристикой n-мерной случайной величины Х является так называемая матрица ковариаций, или дисперсионная матрица:
aij = cov X i X j ≡ M [(X i − MXi )(X j − MX j )]= MXi X j −MXi MX j
i, j = 1, … , n.
На главной диагонали в матрице ковариаций стоят дисперсии: aii = DXi; aij = a ji называется также корреляционным моментом случайных
величин Xi и X j . В силу определения дисперсионной матрицы ясно, что
если Xi и X j независимы, то aij ≡ cov XiX j = 0 . Таким образом, условие
70