- •1 Случайные события
- •1.1 Основные понятия и определения
- •1.2 Аксиомы теории вероятностей
- •1.3 Классическая схема вычисления вероятностей
- •1.3.1 Декартово произведение множеств и правило умножения
- •1.3.2 Размещения и перестановки
- •1.3.3 Сочетания при выборе с возвращением и без возвращения
- •1.3.4 Схема упорядоченных разбиений множества
- •1.4 Геометрическая, статистическая и экспертная схемы расчета
- •1.4.1 Геометрическая схема вычисления вероятности
- •1.4.2 Статистическая схема вычисления вероятности
- •1.4.3 Схема вычисления субъективной вероятности
- •1.5 Условная вероятность. Независимость событий. Формулы сло-
- •1.6 Формула полной вероятности и формулы Байеса
- •2 Случайные величины
- •2.1 Cлучайная величина и ее функция распределения
- •2.2 Дискретная случайная величина
- •2.2.1 Дискретный закон распределения
- •2.2.2 Числовые характеристики дискретного распределения
- •2.2.3 Производящая функция вероятностей
- •2.2.4 Биномиальное распределение
- •2.2.5 Распределение Пуассона
- •2.2.6 Геометрическое распределение
- •2.3 Непрерывные случайные величины
- •2.3.1 Функция распределения и плотность распределения
- •2.3.2 Числовые характеристики непрерывного распределения
- •2.3.3 Равномерное распределение
- •2.3.4 Нормальное распределение
- •2.3.5 Показательное распределение
- •2.4 Функция от случайной величины
- •3 Случайные векторы
- •3.1 Общие свойства случайного вектора
- •3.2 Случайные векторы дискретного типа
- •3.3 Непрерывные случайные векторы
- •4 Предельные теоремы
- •4.1 Закон больших чисел
- •4.2 Центральная предельная теорема
- •5 Элементы математической статистики
- •5.1 Выборка и выборочные законы распределения
- •5.2 Точечные оценки числовых характеристик случайных величин
- •5.3 Интервальные оценки
- •5.4 Проверка статистических гипотез
3.2 Случайные векторы дискретного типа
Определение дискретного случайного вектора.
Двумерный случайный вектор X, Y называют дискретным, если мно-
жество его возможных значений конечное или счетное.
Перечень возможных значений {xi, yj} двумерного случайного вектора
и соответствующих каждой такой паре вероятностей pij= P {X = xi, Y = yj}
называют законом распределения дискретного случайного вектора .
При этом всегда должно выполняться условие нормировки
∑ ∑
pij= 1,
i
j
где суммирование проводится по всем возможным значениям индексов i, j .
В качестве практических задач, которые моделируются двумерными
дискретными случайными векторами можно назвать:
1. Случайный вектор (X, Y ) , где X – число деталей, изготовленных на
первом станке, а Y – число деталей, изготовленных на втором станке.
2. Случайный вектор (X, Y ) , где X – число запросов, поступивших за опре-
деленное время в первую систему массового обслуживания, а Y – число
запросов, поступивших во вторую систему обслуживания.
Функция распределения дискретного случайного вектора находится по
его закону распределения. Для этого необходимо для всех возможных зна-
чений (x, y) плоскости R2найти суммы тех вероятностей pij, для которых
выполняются условия xi< x , yj< y . Таким образом, получим формулу:
FX,Y(x, y) = ∑
∑
pij.
i:xi<x j:yj<y
Пусть E есть множество всех возможных значений двумерного слу-
чайного вектора дискретного типа. Тогда вероятность любого дискретного
события G ⊂ E вычисляется по формуле
P {(X, Y ) ∈ G} = ∑ ∑pij,
i
j
где суммирование идет по тем индексам (i, j ) , для которых (xi, yj) ∈ G .
Данная формула позволяет по закону распределения двумерной дис-
кретной случайной величины получить одномерные дискретные законы рас-
пределения каждой компоненты в следующем виде:
pi= P {X = xi} = ∑pij=pi∗, pj= P {Y = yj} = ∑pij=p∗j.
j
77
i
Приведенные выше условия обычно называют условиями согласованно-
сти для двумерного дискретного случайного вектора.
Отметим, что обратная задача определения закона распределения дву-
мерной случайной величины по известным законам распределения соответ-
ствующих одномерных величин решается только для независимых случайных
величин, что вытекает из следующей теоремы.
Теорема (о независимости дискретных случайных величин).
Случайные величины дискретного типа X (ω) , Y (ω) независимы
тогда и только тогда, когда при любых i, j справедливы равенства
P {X = xi, Y = yj} = P {X = xi} · P {Y = yj}
или, используя ранее принятые обозначения, ∑jpij= pi∗, ∑ipij= p∗j
pij= pi∗·p∗j.
Необходимость условия теоремы непосредственно следует из опре-
деления независимости случайных величин.
Достаточность условия теоремы доказывается следующим обра-
зом. Функция распределения двумерного дискретного случайного вектора в
случае выполнения условий теоремы представима в следующем виде:
F (x, y) = ∑
∑pij = ∑
∑pi∗·p∗j = ∑pi∗ ∑
p∗j = FX(x)· FY(y ).
i:xi<x j:yj<y
i:xi<x j:yj<y
i:xi<x
j:yj<y
Отсюда и общей теоремы о независимости случайных величин следует
доказательство достаточности условия данной теоремы.
Рассмотрим, как вводятся наиболее распространенные числовые харак-
теристики для векторных случайных величин.
Предварительно без доказательства приведем общую формулу вычис-
ления математического ожидания случайной величины ψ(X, Y ) , которая яв-
ляется функцией двумерного дискретного случайного вектора XЇ = (X, Y ) :
M [ψ(X, Y )] = ∑ ∑ ψ(xi, yj) · pij.
i
j
Из данной формулы непосредственно выводится линейное свойство ма-
тематического ожидания для двух дискретных случайных величин.
Если данную формулу распространить на дискретный случайный век-
тор размерности n , то из нее выводится утверждение о том, что математи-
ческое ожидание линейной комбинации случайных величин равно
78
линейной комбинации их математических ожиданий
M
n
∑
k=1
akXk
!
=
n
∑
k=1
akM (Xk).
Непосредственно из определения математического ожидания следует
утверждение о том, что математическое ожидание неотрицатель-
ной случайной величины также неотрицательно:
X (ω) ≥ 0 ⇒ M (X (ω)) ≥ 0.
Это позволяет доказать свойство монотонного неубывания опе-
ратора математического ожидания
X (ω) ≥ Y (ω) ⇒ M (X (ω)) ≥ M (Y (ω)) .
Действительно, в этом случае X ((Ї)) − Y ((Ї)) ≥ 0 и, следовательно,
M (X − Y ) = M (X ) − M (Y ) ≥ 0 , т. е. M (X ) ≥ M (Y ) .
При условии, что компоненты случайного вектора независимы, выво-
дится формула вычисления математического ожидания произве-
дения двух независимых дискретных случайных величин в виде
M (X · Y ) = M (X ) · M (Y ).
Действительно, в случае независимости компонент справедливо равен-
ство pij= pi∗·p∗j , которое позволяет выполнить следующие преобразования:
M (X · Y ) = ∑ ∑xiyjpij=∑ ∑xiyj(pi∗·p∗j) =
i
j
i
j
= ∑xipi∗·∑yjp∗j=M (X ) · M (Y ).
i
j
Аналогичный вид имеет формула математического ожидания произве-
дения нескольких независимых дискретных случайных величин.
Для двумерного дискретного случайного вектора X, Y вычисляют сле-
дующие числовые характеристики .
1. Математическое ожидание компоненты X :
mx= M (X ) = ∑ ∑xi·pij= ∑xi·pi∗ .
i
j
i
2. Математическое ожидание компоненты Y :
my= M (Y ) = ∑ ∑yj·pij= ∑
yj· p∗j.
i
j
79
j
3. Дисперсию и стандартное отклонение компоненты X :
Dx= M[(X − mx)2]=∑ ∑(xi−mx)2pij= ∑(xi−mx)2pi∗, σx= ⲚDx.
i
j
i
4. Дисперсию и стандартное отклонение компоненты Y :
Dy= M[(Y − my)2]=∑ ∑(yj−my)2pij= ∑
(yj−my)2p∗j , σy= ⲚDy.
i
j
j
5. Ковариацию двух случайных компонент X, Y :
Kxy= M ((X − mx) · (Y − my)) = ∑ ∑
(xi− mx)(yj− my) · pij.
i
j
Двумерный вектор (mx, my) называют математическим ожиданием
или центром рассеивания случайного вектора X, Y .
Используя свойства математического ожидания, выводят более удобные
при конкретных расчетах формулы вычисления дисперсий и ковариации:
Dx= M (X2) − m2x,Dy= M (Y2) − m2y,Kxy= M (XY ) − mx· my.
Опираясь на свойства математического ожидания и приведенные выше
определения характеристик двумерного случайного вектора, найдем диспер-
сию суммы его компонент X + Y в виде
D(X + Y ) = Dx+ Dy+ 2Kxy,
предварительно выполнив следующие преобразования:
D(X + Y ) = M[(X + Y )2] − [M (X + Y )]2=
= M (X2) + 2M (XY ) + M (Y2) − m2x − 2mxmy− m2y=
=[M (X2) − m2x]+[M (Y2) − m2y]+ 2[M (XY ) − mxmy] = Dx+ Dy+ 2Kxy.
Аналогично выводится общая формула дисперсии линейной комбина-
ции случайных величин aX + bY ; a, b ∈ R в следующем виде:
D(aX + bY ) = a2Dx+ b2Dy+ 2abKxy.
Так как величина ковариации зависит от единиц измерения, то приме-
нение ковариации в качестве меры связи между случайными величинами X
и Y не всегда удобно. Поэтому в качестве меры связи случайных величин X
80
и Y обычно используют безразмерную характеристику, называемую коэффи-
циентом корреляции. Коэффициент корреляции в случае существования
дисперсий Dxи Dyвычисляется по следующей формуле:
ρxy= √
Kxy
=
Kxy
.
Dx· ⲚDy
σxσy
Коэффициент корреляции определяет степень линейной зависимости
между случайными величинами и удовлетворяет условию нормировки
−1 ≤ ρxy≤ 1.
Для вывода условия нормировки вычислим дисперсию линейной комбинации
Y −tX случайных величин X, Y по формуле D(Y −tX ) = Dy−2t·Kxy+t2Dx,
где t рассматривается как числовая переменная. Правая часть данной фор-
мулы является квадратной функцией относительно переменной t . Эта функ-
ция неотрицательна, так как дисперсия любой случайной величины неотри-
цательна. В этом случае дискриминант уравнения Dxt2− 2Kxyt + Dy= 0
удовлетворяет условию Kxy2 − Dx· Dy≤ 0 . Из этого неравенства следует:
|Kxy| ≤ ⲚDx·ⲚDy , −ⲚDx·ⲚDy ≤ Kxy≤ ⲚDx·ⲚDy .
√
Поделив неравенства на величину
Dx· ⲚDy , получим, окончательно,
доказываемое свойство нормированности коэффициента корреляции.
Если случайные величины X, Y связаны линейной зависимостью
Y = aX + b , то коэффициент корреляции равен единице при a > 0 и равен
минус единице, если a < 0 . Действительно, в этом случае:
Kxy= M (XY ) − mxmy= M [aX2+ bX ] − mx(amx+ b) =
= a[M (X2) − m2x]+ b[mx− mx] = aDx, D(Y ) = a2Dx,
ρxy= √
Kxy
=
aDx
√ √
=
a
.
Dx· ⲚDy
|a|
Dx
Dx
|a|
Таким образом, при a > 0 получаем ρxy= 1 , а при a < 0 имеем ρxy= −1 .
Случайные величины X, Y , для которых коэффициент корреляции ра-
вен нулю, называют некоррелированными. В обратном случае, т. е. при
ρxy6= 0 , случайные величины называют коррелированными . Ковариация
и коэффициент корреляции являются в определенной степени мерой зависи-
мости или независимости случайных величин.
Теорема (о некоррелированности независимых компонент).
Если случайные величины X и Y являются независимыми, то их
ковариация и коэффициент корреляции равны нулю.
81
Доказательство. Для независимых случайных величин X и Y вер-
но равенство M (X · Y ) = M (X ) · M (Y ) . Отсюда и из формул вычисления
ковариации и коэффициента корреляции следует:
Kxy= M (XY ) − mx· my= M (X ) · M (Y ) − mx· my= 0, ρxy= 0.
По закону контрпозиции из данной теоремы следует, что при отличном
от нуля коэффициенте корреляции, т. е. при ρxy6= 0 , случайные величины
X , Y обязательно являются зависимыми. Отметим, что из некоррелирован-
ности случайных величин X и Y не следует их независимость, т. е. в тех
случаях, когда ρxy= 0 , случайные величины X и Y могут быть как за-
висимыми, так и независимыми, что показывается на конкретных примерах.
Соотношения между ѕзависимостью независимостьюї и ѕкоррелированно-
стью –– некоррелированностьюї случайных величин X и Y представлены
на следующей диаграмме.
Независимые |
Зависимые
Некоррелированные | Коррелированные
Пример. В урне имеются четыре шара с номерами 1, 2, 3, 4 . Из урны
наугад выбирают сразу два шара. Рассмотрим двумерный дискретный слу-
чайный вектор X (ω), Y (ω) . Первую компоненту этого вектора X (ω) опре-
делим как число шаров c четным номером в паре, а вторую компоненту Y (ω)
определим как положительную разность номеров в каждой возможной паре.
1) Найти закон распределения случайного вектора (X (ω), Y (ω)) .
2) Проверить зависимы или нет компоненты X (ω) и Y (ω) .
3) Найти основные числовые характеристики случайного вектора.
4) Вычислить вероятность события {X ≥ Y } .
Решение. Число элементарных событий равно числу сочетаний из че-
тырех по два, а пространство элементарных событий в вероятностной модели
данной задачи имеет вид Ω = {(1, 2), (1, 3), (1, 4), (2, 3), (2, 4), (3, 4)} . Случай-
ная величина X (ω) задана на множестве Ω и, как видно из ее определения,
принимает значения 0, 1, 2 . Соответственно, случайная величина Y (ω) при-
нимает положительные значения 1, 2, 3 .
Так как число значений каждой случайной величины конечное, то закон
распределения двумерной случайной величины можно задать таблицей:
82
(xi, yj); i, j = 1, 2, 3 1
2
3 pi∗ = P {X = xi}
0
1
2
p∗j=P {Y = yj}
0 1/6 0
3/6 0 1/6
0 1/6 0
3/6 2/6 1/6
1/6
4/6
1/6
1
В первом столбце таблицы указываются возможные значения первой
случайной величины X (ω) , а в последнем столбце помещаются вероятно-
сти возможных значений X (ω) , которые рассчитываются в данном примере
по классической схеме вычисления вероятностей событий. Соответственно,
в первой строке располагаются возможные значения Y (ω) , а в последней
строке таблицы помещены вероятности возможных значений Y (ω) .
В каждой клетке таблицы, стоящей на пересечении i -того значения слу-
чайной величины X (ω) и j -того значения случайной величины Y (ω) указы-
ваются вероятности pijсовместного появления событий {X = xi, Y = yj} .
Отметим, что при заполнении таблицы закона двумерного распределе-
ния полезно использовать условия согласованности.
Применим теорему о независимости компонент к данному двумерному
вектору. Как видно из таблицы, вероятность p11совместного осуществления
событий {X = 0, Y = 1} равна нулю. Для первой компоненты X вероят-
ность p1∗ = P {X = 0} равна 1/6 . Соответственно, для второй компоненты
Y вероятность p∗1=P {Y = 0} равна 3/6 . Таким образом, 06= 1/6 · 3/6 и
условие независимости случайных величин X и Y не выполняется хотя бы
для данной ячейки таблицы, так что компоненты X и Y зависимы.
Для данного двумерного дискретного случайного вектора X, Y вычис-
лим основные числовые характеристики.
1. Математическое ожидание X :
3
∑
mx=
i=1
xi· pi∗ = 0 · 1/6 + 1 · 4/6 + 2 · 1/6 = 1.
2. Математическое ожидание Y :
3
∑
my=
i=1
yj· p∗j= 1· 3/6 + 2 · 2/6 + 3 · 1/6 = 1, 67.
83
3. Дисперсия и стандартное отклонение компоненты X :
3
Dx=
∑
i=1
(xi− mx)2· pi∗ = (−1)2· 1/6 + 0 · 4/6 + (1)2· 1/6 = 2/6, σx= 0, 58.
4. Дисперсия и стандартное отклонение компоненты Y :
Dy= (−4/6)2· 3/6 + (2/6)2· 2/6 + (8/6)2· 1/6 = 5/9, σy= 0, 75.
5. Ковариация и коэффициент корреляции случайных компонент X, Y :
3
3
Kxy=
∑ ∑
(xi− mx)(yj− my) · pij= (−1)· (2/6) · (1/6) + (1) · (2, 6) · (1/6) = 0,
i=1 j=1
ρxy= 0.
Отметим, что в данном примере случайные компоненты X, Y являются
зависимыми, хотя коэффициент корреляции равен нулю.
Вычислим вероятность P {X ≥ Y } . Для этого необходимо суммировать
все те вероятности pij, для которых выполняются условия xi≥ yj, так что
P {X ≥ Y } = 3/6 + 0 + 1/6 = 4/6 .