- •Теория вероятностей
- •Введение
- •1. Случайные события. Вероятность событий
- •1.1. Элементы комбинаторики
- •1.1.1 Повторные выборки
- •Число способов выбора двух элементов
- •Число выборок из трех элементов
- •1.1.2. Бесповторные выборки
- •1.2. Основные понятия теории вероятностей
- •1.3. Алгебра событий
- •1.4. Частота события
- •1.5. Статистическое определение вероятности
- •1.6. Классическое определение вероятности
- •1.7. Свойства вероятностей
- •1.8. Геометрические вероятности
- •1.9. Теорема умножения вероятностей. Условная вероятность
- •1.10. Теорема сложения вероятностей
- •1.10.1. Вероятность суммы событий
- •1.10.2. Вероятность появления хотя бы одного события
- •1.11. Формула полной вероятности. Формула Байеса
- •1.11.1. Формула полной вероятности
- •1.11.2. Вероятность гипотез. Формула Байеса
- •2. Повторные независимые испытания
- •2.1. Формула Бернулли
- •2.2. Формулы Лапласа
- •2.2.1 Локальная теорема Лапласа
- •2.2.2. Интегральная теорема Лапласа
- •2.3. Формула Пуассона
- •2.4. Простейший поток событий
- •3. Случайные величины
- •3.1. Понятие случайной величины
- •3.2. Законы распределения дискретных случайных величин
- •3.3. Законы распределения непрерывных случайных величин
- •3.3.1. Интегральная функция распределения
- •3.3.2. Показательный закон распределения
- •3.3.3. Дифференциальная функция распределения
- •3.3.4. Равномерное распределение
- •3.3.5. Распределение Коши
- •4. Числовые характеристики случайных величин
- •4.1. Математическое ожидание и его свойства
- •4.1.1. Математическое ожидание
- •4.1.2. Свойства математического ожидания
- •4.2. Дисперсия и среднее квадратическое отклонение
- •4.2.1. Дисперсия случайной величины
- •4.2.2. Свойства дисперсии
- •4.2.3. Среднее квадратическое отклонение
- •4.3. Моменты случайных величин
- •4.4. Примеры нахождения законов распределения
- •5. Нормальный закон распределения
- •5.1. Геометрический смысл параметров m и σ
- •5.2. Вероятностный смысл параметров функции распределения
- •5.3. Вероятность попадания случайной величины в заданный интервал
- •5.4. Вероятность отклонения случайной величины от математического ожидания
- •6. Системы случайных величин
- •6.1. Функция распределения
- •6.2. Плотность распределения
- •6.3. Закон распределения системы двух дискретных случайных величин
- •6.4. Зависимые и независимые случайные величины
- •6.5. Операции над случайными величинами
- •6.6. Числовые характеристики системы двух случайных величин
- •6.6.1. Ковариация двух случайных величин
- •6.6.2 Коэффициент корреляции
- •6.9. Двумерный нормальный закон распределения
- •7. Предельные теоремы теории вероятностей
- •7.1. Центральная предельная теорема
- •7.2. Интегральная теорема Лапласа
- •7.3. Распределение частоты события
- •7.4. Закон больших чисел
- •7.5. Неравенство Чебышева
- •7.6. Теорема Чебышева
- •7.7. Теорема Бернулли
- •7.8. Принцип практической уверенности
- •7.9. Правило трёх сигм
- •Контрольные вопросы
- •Заключение
- •Рекомендуемый Библиографический список
- •Теория вероятностей
- •6 80021, Г. Хабаровск, ул. Серышева, 47.
6.6. Числовые характеристики системы двух случайных величин
Числовые характеристики системы случайных величин (X,Y) состоят из числовых характеристик каждой из величин, входящих в систему, и числовых характеристик, дающих представление о характере связи между величинами. Числовые характеристики каждой из величин по отдельности определяются как числовые характеристики обычных случайных величин Х и Y. Из числовых характеристик зависимости между величинами назовем лишь наиболее употребляемые.
6.6.1. Ковариация двух случайных величин
Корреляционным моментом или ковариацией случайных величин Х и Y называется математическое ожидание произведения соответствующих центрированных величин
cov (X, Y) = = М((Х-М(Х)(Y-M(Y)).
Если случайные величины независимы, то их ковариация равна нулю. Обратное утверждение верно не всегда. Равенство нулю ковариации независимых случайных величин следует из теоремы о математическом ожидании произведения независимых случайных величин:
cov (X,Y)= = 0 0 = 0.
Ковариация двух случайных величин характеризует не только степень зависимости случайных величин, но и их рассеивание вокруг точки (M(X); M(Y)).
Ковариацию часто удобно выражать через начальные моменты случайных величин:
Таким образом, ковариация двух случайных величин равна математическому ожиданию их произведения минус произведение математических ожиданий.
6.6.2 Коэффициент корреляции
Размерность ковариации cov(X, Y) равна произведению размерностей случайных величин Х и Y. Безразмерной характеристикой зависимости Х и Y является коэффициент корреляции
.
Коэффициент корреляции случайных величин Х и Y характеризует силу зависимости этих величин, причем только линейную зависимость. Если , то случайные величины Х и Y связаны положительной корреляцией и при возрастании одной из них другая также возрастает. Если , то корреляция отрицательна и с ростом одной величины другая убывает. Можно доказать, что для любых двух случайных величин Х, Y
.
Если линейной зависимости нет, то . Если между Х и Y существует функциональная линейная зависимость , то при и при . Заметим, что означает только отсутствие линейной зависимости между случайными величинами; любой другой вид связи может при этом присутствовать.
Пример 6.5.
Закон распределения системы двух дискретных случайных величин (Х, Y) задан таблицей. Найти ковариацию системы и коэффициент корреляции .
Сделать вывод о тесноте зависимости между случайными величинами Х и Y.
Х У |
1 |
2 |
4 |
0 |
0,1 |
0 |
0,1 |
2 |
0 |
0,3 |
0,3 |
5 |
0,2 |
0 |
0 |
Решение.
Ковариация вычисляется по формуле . Прежде всего найдем законы распределения для Х и Y (п. 6.3).
Суммируя вероятности , стоящие в первом, затем во втором и третьем столбцах таблицы, получим:
.
Ряд распределения для Х имеет вид
М(Х) =
D(X) = M(X - (M(X)) .
.
D(X) = 7,9-(2,5) .
Среднее квадратическое отклонение
Аналогично находим ряд для Y, суммируя вероятности по строкам таблицы:
.
M(Y)= .
Находим математическое ожидание произведения случайных величин Х и Y:
Ковариация сov(X,Y) = M(XY) – M(X)M(Y) = 4,6 – 2,5
Коэффициент корреляции определяется по формуле:
= .
Полученный результат говорит о том, что между случайными величинами Х и Y существует отрицательная линейная зависимость, т.е. при увеличении одной из них другая имеет некоторую тенденцию уменьшаться.