Добавил:
Upload Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:
Вышка.doc
Скачиваний:
19
Добавлен:
24.12.2018
Размер:
2.42 Mб
Скачать

Вопрос 36. Вероятность попадания случайной величины в полуполосу.

Y

Y1 (x1,y1) (x2,y1) P(x1<X<x2 , Y<y1) = F(x2 , y1) - F(x1 , y1)

y

y2 (x1,y2)

(x1,y1)

X1 X2 X y1

X

X1

P(X<x1 , y1<Y<y2) = F(x1 , y1) - F(x1 , y1)

Y2 (x1,y2) (x2,y2) P(x1<X<x2 , y1<Y<y2) = F(x2 , y2) - F(x1 , y2) – [F(x2 , y1) - F(x1 , y1)] =

= F(x1 , y1) + F(x2 , y2) - F(x1 , y2) - F(x2 , y1) (*)

Y1 (x1,y1) (x2,y1)

X1 X2

Вопрос 37. Плотность совместного распределения вероятностей непрерывной двумерной случайной величины.

Определение: Вторая смешанная частная производная от функции распределения.

(1) Вероятностный смысл совместной плотности распределения.

PABCD = [F(x2 , y2) - F(x1 , y2)] – [F(x2 , y1) - F(x1 , y1)] =

PABCD – вероятность попадания в плоскость. Воспользуемся формулой (1)

=

(2)

Вероятностный смысл (2) – плотность распределения представляет собой:

D

Y

X

Тогда по формуле (2) Р попадания в каждый мелкий квадратик

(3)

Нахождение функции распределения по известной плотности.

Свойства:

  1. Доказательство основано на вероятностном смысле плотности распределения.

Вопрос 38. Нахождение плотностей вероятности составляющих двумерной случайной величины.

Вопрос 39. Зависимые и независимые случайные величины. Корреляционный момент и коэффициент корреляции.

Две случайные величины называют независимыми, если закон распределения одной из них не зависит от того, какие возможные значения приняла другая величина. Отсюда следует, что условные распределения независимых величин равны их безусловным распределениям.

Необходимые и достаточные условия независимости случайных величин.

Теорема: Для того, чтобы случайные величины Х, Y были независимыми, необходимо и достаточно, чтобы функция распределения системы (Х, Y) была равна произведению функций распределения составляющих: F(x,y)=F1(x) F2(y)

Доказательство: а) Необходимость. Пусть Х и Y независимы. Тогда события X<x и Y<y независимы, следовательно, вероятность совмещения этих событий равна произведению их вероятностей:

P(X<x , Y<y) =P(X<x ) P(Y<y) или F(x,y)=F1(x) F2(y).

б) Достаточность. Пусть F(x,y)=F1(x) F2(y). Отсюда P(X<x , Y<y) =P(X<x ) P(Y<y), т.е. вероятность совмещения событий X<x и Y<y равна произведению вероятностей этих событий. Следовательно, случайные величины X и Y независимы.

Следствие: Для того чтобы непрерывные случайные величины Х и Y были независимыми, необходимо и достаточно, чтобы плотность совместного распределения системы (Х,Y) была равна произведению плотностей распределения составляющих: f(x,y)=f1(x) f2(y). Доказательство: а) Необходимость. Пусть Х и Y - независимые непрерывные случайные величины. Тогда (на основании предыдущей теоремы): F(x,y)=F1(x) F2(y). Дифференцируя это равенство по х, а потом по y, имеем: , или (по определению плотностей распределения двумерной и одномерной величин) f(x,y)=f1(x) f2(y).

б) Достаточность. Пусть f(x,y)=f1(x) f2(y). Интегрируя это равенство по х, а потом по y, получим:

или F(x,y)=F1(x) F2(y). Следовательно, Х и Y независимы.

Для описания системы двух случайных величин кроме математических ожиданий и дисперсий составляющих используют и другие характеристики: корреляционный момент и коэффициент корреляции. Корреляционным моментом случайных величин Х и Y называют математическое ожидание произведения отклонений этих величин: Для вычисления корреляционного момента дискретных величин используют формулу: , а для непрерывных величин – формулу: . Корреляционный момент служит для характеристики связи между величинами X и Y. Корреляционный момент =0, если X и Y независимы.

Теорема: Корреляционный момент двух независимых случайных величин X и Y =0.

Доказательство: Т.к. Х и Y – независимые случайные величины, то их отклонения X-M(X) и Y-M(Y) также независимы. Пользуясь свойствами математического ожидания (мат. ожидание произведения независимых случайных величин равно произведению математических ожиданий сомножителей) и отклонения (математическое ожидание отклонения равно нулю), получаем: =0. Из определения корреляц.момента следует, что он имеет размерность , равную произведению размерностей величин Х и Y.

Коэффициент корреляции rxy случайных величин Х иY - это отношение корреляционного момента к произведению средних квадратических отклонений этих величин: . Так как размерность момента корреляции равна произведению размерностей величин X и Y, имеет размерность величины X, а - размерность величины Y, то rxy – безразмерная величина. Таким образом, величина коэффициента корреляции не зависит от выбора единиц измерения случайных величин. В этом преимущество коэффициента корреляции перед корреляционным моментом.

Теорема: Абсолютная величина корреляционного момента двух случайных величин Х и Y не превышает среднего геометрического их дисперсий:. Доказательство: Введем в рассмотрение случайную величину и найдем ее дисперсию D(Z1)=. Выполнив выкладки, получим . Любая дисперсия неотрицательна, поэтому . Отсюда (1). Введя случайную величину , аналогично найдем (2). Теперь объединим (1) и(2): (3) или . И таким образом, .

Теорема: Абсолютная величина коэффициента корреляции не превышает единицы: .

Доказательство: Разделим обе части двойного неравенства (3) на произведение положительных чисел

: -1. Итак, .

Соседние файлы в предмете [НЕСОРТИРОВАННОЕ]