- •Оглавление
- •Глава 1. Теория вероятностей 10
- •Глава 2. Математическая статистика 44
- •Глава 3. Случайные процессы 67
- •Введение
- •Глава 1. Теория вероятностей
- •1.1. Случайные события Основные понятия теории вероятностей
- •Основные определения
- •Операции над случайными событиями
- •Элементы комбинаторики
- •Классическое определение вероятности
- •Свойства вероятности
- •Вопросы для самопроверки
- •1.2. Теоремы сложения и умножения вероятностей Теорема сложения вероятностей
- •Теорема умножения вероятностей Условная вероятность
- •Обобщенная теорема умножения вероятностей
- •Независимость случайных событий
- •Вопросы для самопроверки
- •1.3. Формула Бернулли. Формула полной вероятности Повторение испытаний. Формула Бернулли
- •Формула полной вероятности
- •Вопросы для самопроверки
- •1.4. Дискретные случайные величины
- •Закон распределения дискретной случайной величины
- •Биномиально распределенные случайные величины
- •Математическое ожидание случайной величины
- •Свойства математического ожидания
- •Дисперсия случайной величины
- •Свойства дисперсии
- •Функция распределения случайной величины
- •Свойства функции распределения
- •Вопросы для самопроверки
- •1.5. Непрерывные случайные величины
- •Плотность вероятности непрерывной случайной величины
- •Cвойства функции плотности вероятности
- •Нормальное распределение
- •Правило трех сигм
- •Независимость случайных величин. Коэффициент корреляции
- •Свойства коэффициента корреляции
- •Предельные теоремы теории вероятностей
- •Закон больших чисел в форме Чебышева
- •Следствия из закона больших чисел
- •Центральная предельная теорема (теорема Ляпунова)
- •Вопросы для самопроверки
- •Глава 2. Математическая статистика
- •2.1. Основные понятия математической статистики
- •Приемы обработки выборок
- •Построение гистограммы относительных частот
- •Точечные оценки параметров генеральной совокупности
- •Дополнительные свойства точечных оценок
- •Проверка взаимозависимости генеральных совокупностей. Выборочный коэффициент корреляции
- •Интервальные оценки параметров генеральной совокупности
- •Вопросы для самопроверки
- •2.2. Статистическая проверка статистических гипотез
- •Этапы проверки статистических гипотез
- •Проверка гипотез о параметрах генеральных совокупностей
- •Проверка гипотезы о виде распределения генеральной совокупности. Критерий согласия Пирсона
- •Вопросы для самопроверки
- •Глава 3. Случайные процессы
- •3.1. Элементы теории случайных процессов Определение случайного процесса
- •Основные характеристики случайных процессов
- •Свойства математического ожидания
- •Дисперсия случайного процесса и ее свойства
- •Корреляционная функция случайного процесса и ее свойства
- •Нормированная корреляционная функция
- •Взаимная корреляционная функция и ее свойства
- •Нормированная взаимная корреляционная функция
- •Производная и интеграл от случайной функции
- •Интеграл от случайной функции и его характеристики
- •Вопросы для самопроверки
- •Заключение
- •Библиографический список
Правило трех сигм
Нормальные случайные величины достаточно компактно принимают подавляющую часть значений в небольшой окрестности своего математического ожидания. Пользуясь таблицами интегральной функции Лапласа, можно определить радиус или полуширину такой окрестности M(N(a, )), чтобы вероятность отклонения от нее не превышала полпроцента (была очень мала). Установлено, что этот радиус равен примерно :
Р({а – < N(a, ) < а + }) = Ф(( а + –а)/ ) – – Ф(( а – –а)/ ) = Ф(3) – Ф(–3) = 2Ф(3) 2·0.499 = 0.998.
Иногда этим свойством пользуются в обратном смысле: если подавляющая часть значений исследуемой случайной величины локализуется в трехсигмовой окрестности математического ожидания, то делается вывод, что эта случайная величина имеет нормальное распределение.
Независимость случайных величин. Коэффициент корреляции
Случайные величины Х и Y называются независимыми, тогда и только тогда, когда случайные события {Х = хi} и {Y = yj} при любых i и j являются независимыми. Согласно ранее данному определению это эквивалентно тому, что при любых i и j вероятность события {Х = хi} не зависит от того, произошло ли событие {Y = yj} и наоборот. Другими словами, независимые случайные величины Х и Y не могут влиять друг на друга, взаимовлияние отсутствует. В свою очередь, между зависимыми случайными величинами обязательно существует взаимосвязь, говорят, что они в этом случае влияют друг на друга. Пусть, например, Х – число курильщиков по данным из ряда регионов, а Y – число зарегистрированных в этих регионах больных раком легких и туберкулезом. Очевидно, эти случайные величины будут связаны между собой (положительное взаимовлияниие: если Х растет, то и Y растет). Бывает и отрицательная взаимосвязь: например, при повышении Х – цены, устанавливаемой на товар, как правило, уменьшается величина Y – эффективный спрос на него.
Система случайных величин (Х, Y) полностью определяется своим двумерным законом распределения. Для дискретных случайных величин закон распределения представляет собой корреляционную таблицу следующего вида:
Y Х |
у1 |
у2 |
... |
уm |
х1 |
(х1, у1) р11 |
(х1, у2) р12 |
|
(х1, уm) р1m |
х2 |
(х2, у1) |
(х2, у2) р22 |
|
(х2, уm) |
... |
|
|
|
|
хn |
(хn, у1) |
(хn, у2) рn2 |
|
(хn, уm) рnm |
Здесь рij – не условные вероятности, а вероятности произведений событий {Х = хi} и {Y = yj}. Из корреляционной таблицы получаются законы распределения компонент:
– суммированием по строкам:
Р({Х = хi}) = , i = 1, ..., n; (4)
– суммированием по столбцам:
Р({Y = yj}) = , j = 1, ..., m. (5)
Количественной мерой взаимосвязи различных случайных величин является коэффициент корреляции . Он определяется и вычисляется по формуле:
= (М(Х∙Y) – М(Х)∙М(Y))/ . (6)
Значения М(Х), D(Х) и М(Y), D(Y) уже определены и вычислялись ранее. Числитель дроби, равный математическому ожиданию произведения отклонений случайных величин от своих математических ожиданий, называется корреляционным моментом и вычисляется с помощью двумерного закона распределения или корреляционной таблицы, если речь идет о дискретных случайных величинах.