- •Теории вероятностей
- •1. Вероятность события. Непосредственный подсчет вероятностей
- •2. Теоремы сложения и умножения вероятностей Теорема сложения вероятностей несовместных событий
- •Теорема умножения вероятностей
- •3. Формула полной вероятности. Формула байеса
- •4. Повторные испытания. Формула бернулли. Асимптотические формулы (пуассона и муавра – лапласа)
- •5. Случайные величины. Способы их задания
- •6. Числовые характеристики случайной величины
- •7. Равномерное распределение
- •8. Показательное распределение
- •9. Нормальное распределение
- •Математической статистике
- •1. Вариационный ряд. Статистические распределения. Эмпирическая функция распределения. Графическое представление статистических распределений
- •2. Выборочные характеристики статистических распределений
- •3. Точечные и интервальные оценки параметров распределения
- •4. Проверка гипотезы о нормальном распределении генеральной совокупности
- •5. Парная линейная корреляционная зависимость. Парный линейный коэффициент корреляции, проверка его значимости. Линейное уравнение регрессии
- •6. Простейшие случаи парной нелинейной корреляционной зависимости. Корреляционное отношение. Нелинейное уравнение регрессии
- •7. Множественный корреляционно-регрессионный анализ
3. Формула полной вероятности. Формула байеса
Вероятность наступления события с одним из событий , ,..., , образующих полную группу событий, равна сумме произведений вероятностей каждого из событий на соответствующую условную вероятность события , то есть
(13)
Эта формула называется формулой полной вероятности. События называют гипотезами. Предположим, что событие уже наступило. Требуется определить вероятность того, что событие наступило при осуществлении, например, гипотезы , то есть найти . Эта вероятность вычисляется по формуле Байеса (по формуле гипотез):
. (14)
4. Повторные испытания. Формула бернулли. Асимптотические формулы (пуассона и муавра – лапласа)
При решении вероятностных задач часто приходится сталкиваться с ситуациями, в которых одно и то же испытание повторяется многократно. Например, стрелок, не сходя с места, каждый раз тщательно прицеливаясь, производит несколько выстрелов по мишени, или контролер берет наудачу несколько деталей. В результате этих повторных испытаний некоторое событие может наступить k раз, а может вообще не наступить.
Испытания называются независимыми относительно события , если вероятность наступления события в каждом испытании не зависит от исходов других испытаний. Будем рассматривать только такие испытания, в которых событие A имеет одну и ту же вероятность.
Пусть проводится независимых испытаний, в каждом из которых событие A может наступить с вероятностью одинаковой при каждом испытании, или не наступить (событие ) с вероятностью q = 1 – p. Тогда вероятность того, что событие наступит раз, можно найти по формуле Бернулли:
. (15)
Вероятности изменяются с изменением , а именно: с возрастанием от 0 до вероятности вначале растут до некоторого момента, а затем начинают убывать. Частота наступления события , которой соответствует наибольшая вероятность , называется наивероятнейшей частотой и обозначается , то есть
Решая эти неравенства относительно , получаем
(16)
При достаточно большом числе испытаний = .
Если по отношению к событию проводится большое число испытаний, то вычисление вероятности по формуле Бернулли становится громоздким. В этом случае для вычисления применяются асимптотические (приближенные) формулы. Одна из таких формул вытекает из теоремы Муавра – Лапласа.
, где (17)
Значения функции табулированы (см. прил. 1). Следует помнить, что функция четная, то есть .
Если число независимых испытаний , проводимых по отношению к событию , неограниченно возрастает, а вероятность при каждом испытании неограниченно убывает ( 0), то есть событие – маловероятное, при этом – величина небольшая, то вероятность , вычисленная по формуле (17), получается с большой погрешностью. В этом случае применяется другая асимптотическая формула, вытекающая из теоремы Пуассона:
где (18)
Обычно эту формулу применяют, когда 100, a 10. Функция Пуассона табулирована при различных значениях и (см. прил. 3).