- •Лекция № 1 Основные понятия теории вероятностей. Классическое определение вероятности. Элементы комбинаторики.
- •1. Основные понятия теории вероятностей.
- •2. Классическое определение вероятности.
- •3. Элементы комбинаторики.
- •Лекция № 2 Алгебра событий. Аксиомы тв. Основные теоремы теории вероятностей. Модели надежности технических систем
- •1. Алгебра событий.
- •3. Основные теоремы теории вероятностей
- •Определение 4.
- •4. Модели надежности технических систем
- •Лекция № 3 Формула полной вероятности. Формула Бейеса.
- •1. Формула полной вероятности.
- •2. Формула Байеса.
- •1. Повторение опытов (схема Бернулли).
- •2. Формула Бернулли
- •3. Локальная теорема Лапласа
- •4. Интегральная теорема Лапласа
- •5. Наивероятнейшее число наступления событий.
- •Лекция № 5 Случайные величины.
- •1. Дискретные случайные величины.
- •Формы задания закона распределения дискретной случайной величины
- •2.1. Ряд распределения.
- •2.2. Многоугольник распределения.
- •2.3. Интегральная функция распределения.
- •2. Многоугольник распределения
- •3. Интегральная функция распределения
- •3. Вероятность попадания случайной величины на заданный участок
- •Лекция № 6 Числовые характеристики случайных величин.
- •1. Характеристики положения случайной величины на числовой оси.
- •Математическое ожидание не случайное число, которое в зависимости от типа случайной величины определяется по формуле:
- •На рис.6.2 показана мода непрерывной унимодальной (с одной модой) случайной величины, заданной плотностью распределения.
- •2. Моменты случайных величин. Для характеристики различных свойств случайных величин используются начальные и центральные моменты.
- •3. Свойства моментов случайных величин. Особого внимания заслуживают свойства начальных и центральных моментов первого и второго порядков.
- •Первый центральный момент μ1 любой случайной величины равен нулю.
- •Математическое ожидание.
- •Дисперсия.
- •Среднее квадратичное отклонение.
- •1.2. Закон распределения Пуассона Закон распределения Пуассона связан с редкими событиями, составляющими простейший поток событий.
- •1. Математическое ожидание.
- •2. Дисперсия.
- •3. Среднее квадратичное отклонение.
- •4. Вероятность попадания пуассоновской случайной величины на заданный участок.
- •2. Законы распределения непрерывных случайных величин.
- •2.1. Равномерный закон распределения
- •Если участок [α,β] не входит в диапазон [a,b], то выражение (7.17) не является справедливым. В этом случае необходимо руководствоваться выражением если (7.18)
- •2.2. Показательный закон распределения
- •2.3. Нормальный закон распределения
- •1. Математическое ожидание.
- •2. Дисперсия.
- •3. Среднее квадратичное отклонение.
- •Поскольку 2-й центральный момент
- •4. Вероятность попадания случайной величины на заданный участок
- •Поскольку то (7.31) перепишется как
- •3. Правило трех сигм
- •Лекция № 8 Основные задачи математической статистики. Определение законов распределения случайных величин на основе экспериментальных данных.
- •Предмет и задачи математической статистики.
- •Основные понятия.
- •3. Простейшие приемы обработки результатов наблюдений.
- •3.1 Статистическое распределение выборки.
- •Гистограмма.
- •Эмпирическая функция распределения
- •Лекция №2. Выравнивание статистических рядов. Проверка статистических гипотез.
- •Лекция №3. Оценка параметров случайных величин.
Лекция №2. Выравнивание статистических рядов. Проверка статистических гипотез.
Выравнивание статистичесих рядов.
Задача выравнивания (сглаживания) заключается в том, чтобы подобрать теоретическую плавную кривую распределения, выражающую лишь существенные черты статистического материала, но не случайности, связанные с недостаточным объемом экспериментальных данных. Эта кривая, с той или иной точки зрения наилучшим образом должна описывать данное статистическое распределение.
Задача о наилучшем выравнивании статистических рядов, как и вообще задача о наилучшем аналитическом представлении эмпирических функций, есть задача в значительной мере неопределенная, и решение ее зависит от того, что условиться считать «наилучшим». При этом вопрос о том, в каком именно классе функций следует искать наилучшее приближение, решается уже не из математических соображений, а из сообрсжений, связанных с физикой решаемой задачи, с учетом характера полученной эмпирической кривой и степени точности произведенных наблюдений. Аналогично, при решении задачи выравнивания статистических рядов, прнципиальный вид теоретической кривой выбирается заранее из соображений, связанных с существом задачи, а в некоторых случаях просто с внешним видом статистического распределения. Пусть для случайной величины Х мы построили гистограмму, которая имеет вид, приведенный на рисунке. Естественно предположить, что исследуемая случайная величина Х подчиняется нормальному закону:
Тогда задача выравнивания переходит в задачу о рациональном выборе параметров m и σ.
Любая аналитическая функция с помощью которой выравнивается статистическое распределение, должна обладать основными свойствами плотности распределания:
Предположим, что, исходя из тех или иных соображений, нами выбрана функция f(x) , удовлетворяющая, приведенным выше условиям. С помощью этой функции мы хотим выровнять данное статистическое распределение; в выражение функции f(x) входит несколько параметров a, b, …; требуется подобрать эти параметры так, чтобы функция наилучшим образом описывала данный статистический материал. Один из методов, применяемых для решения этой задачи, – это так называемый метод моментов.
Согласно методу моментов, параметры a, b, … выбираются с таким расчетом, чтобы несколько важнейших числовых характеристик (моментов) теоретического распределения были равны сответствующим статистическим характеристикам. Например, если теоретическая кривая f(x) зависит только от двух параметров a и b, эти параметры выбираются так, чтобы математическое ожидание mx и дисперсия Dx теоретического распределения совпадали с соответствующими статистическими характеристиками mx* и Dx* . Если кривая f(x) зависит от трех параметров, можно подобрать их так, чтобы совпали первые три момента, и т. д.
При выравивании статистических рядов нерационально пользоваться моментами выше четвертого, так как точность вычисления моментов резко падает с увеличением их порядка.
Проверка гипотезы о согласованности теоретического и статистического распределения.
Допустим, что данное статистическое распределение выравнено с помощью некоторой теоретической кривой. Как бы хорошо ни была подобрана теоретическая кривая, между нею и теоретическим распределением низбежны некоторые расхождения. Возникает вопрос: объясняются ли эти расхождения только случайными обстоятельствами, связанными с ограниченным числом наблюдений, или они являются существенными и связаны с тем, что подобранная нами кривая плохо выравнивает данное статистическое распределение. Для ответа на такой вопрос служат так называемые «критерии согласия».
Идея применения критериев согласия заключается в следующем.
Пусть на основании данного статистического материала необходимо проверить гипотезу Н, состоящую в том, что случайная величина Х подчиняется некоторому определенному закону распределения. Этот закон может быть задан в той или иной форме: наприме, в виде функции распределения F(x) или в виде плотности распределения f(x), или же в виде совокупности вероятностей pi, где pi– вероятность того, что величина Х попадает в пределы i–го разряда.
Для того чтобы принять или опровергнуть гипотезу Н, рассмотрим некоторую величину U, характеризующую степень расхождения теоретического и статистическогораспределений. Величина может быть выбрана различными способами; например, в качестве U можно взять сумму квадратов отклонений теоретических вероятностей pi от соответствующих частот pi* или же сумму тех же квадратов с некоторыми коэффициентами («весами»), или же максимальное отклонение статистической функции распределения F*(x) от теоретической F(x) и т. д. Допустим, что величина U выбрана тем или иным способом. Очевидно, это есть некоторая случайная величина. Закон распределения этой случайной величины зависит от закона распределения случайной величины Х, над которой производились опыты, и от числа опытов n. Если гипотеза Н верна, то закон распределения величины U определяется законом распределения величины Х и числом n.
Допустим, что этот закон распределения нам известен. В результате данной серии опытов обнаружено, что выбранная нами мера расхождения U приняла некоторое значение u. Спрашивается, можно ли объяснить это случайными причинами или же это расхождение слишком велико и указывает на наличие существенной разницы между теоретическим и статистическим распределениями и, следовательно, на непригодность гипотезы Н? Для ответа на этот вопрос предположим, что гипотеза Н верна, и вычислим в этом предположении вероятность того, что за счет случайных причин, связанных с недостаточным объемом опытного материала, мера расхождения U окажется не меньше, чем наблюденное нами в опыте значение u, т. е. вычислим вероятность события:
U≥u
Если эта вероятность весьма мала, то гипотезу Н следует отвергнуть как мало правдоподобную; если же эта вероятность значительна, следует признать, что экспериментальные данные не противоречат гипотезе Н.
Возникает вопрос о том, каким же способом следует выбирать меру расхождения U? Оказывается, что при некоторых способах ее выбора закон распределения величины U обладает весьма простыми свойствами и при достаточно большом n практически не зависит от функции F(x). Именно такими мерами расхождения и пльзуются в математической статистике в качесиве критериев согласия.
Одним из наиболее часто используемых критериев согласия является, так называемый, «критерий χ2» Пирсона.
Предположим, что произведено n независимых опытов, в каждом из которых случайная величина X приняла определенное зеачение. Результаты опытов сведены в k разрядов и оформлены в виде статистического ряда:
Ii |
x1; x2 |
X2; x3 |
… |
xk; xk+1 |
pi* |
p1* |
p2* |
… |
pk* |
Требуется проверить, согласуются ли экспериментальные данные с гипотезой о том, что случайная величина Х имет данный закон распределения (заданный функцией распределения F(x) или плотностью f(x) ). Назовем этот закон распределения «теоретическим».
Зная теоретический закон распределения, можно найти теоретические вероятности попадания случайной величины в каждый из разрядов:
p1, p2, . . . , pk.
Проверяя согласованность теоретического и статистического распределений, будем исходить из расхождения между теоретическими вероятностями pi и наблюденными частотами pi*. Естественно выбрать в качестве меры расхождения между теоретическим и статистическим распределениями сумму квадратов отклонений (pi*-pi), взятых с некоторыми «весами» ci:
Коэффициенты ci («веса» разрядов) вводятся потому, что в общем случае отклонения, относящиеся к различным разрядам, нельзя считать равноправными по значимости. Одно и то же по абсолютной величине отклонение (pi*-pi) может быть мало значительным, если сама вероятность pi велика, и очень заметным, если она мала. Поэтому естественно «веса» ci взять обратно пропорциональными вероятностям разрядов pi.
К. Пирсон покзал, что если положить
,
то при больших n закон распределения величины U обладает весьма простыми свойсивами: он практически не зависит от функции распределения F(x) и от числа опытов n , а зависит только от числа разрядов k, а именно, этот закон при увеличении n прближается к так называемому «распределению χ2»
При таком выборе коэффициентов ci мера расхождения обычно обозначается χ2:
Распределение χ2 зависит от параметра r, называемого числом «степеней свободы» распределения. Число «степеней свободы» r равно числу разрядов k минус число независимых условий («связей»), наложенных на частоты pi*. Примерами таких условий могут быть
,
если мы требуем только того, чтобы сумма частот была равна единице (это требование накладывается во всех случаях);
,
если мы подбираем теоретическое распределение с тем условием, чтобы совпадали теоретическое и статистическое средние значеия;
,
если мы требуем, кроме того, совпадаения теоретической и статистической дисперсий и т. д.
Для распределения χ2 составлены специальные таблицы. Фрагмент такой таблицы приведен ниже:
r |
p |
||
0,10 |
0,05 |
0,02 |
|
8 |
13,36 |
15,51 |
18,17 |
9 |
14,68 |
16,92 |
19,68 |
10 |
15,99 |
18,31 |
21,20 |
В этой таблице входами являются: значение вероятности p и число степенй свободы r. Числа стоящие в таблице, представляют собой значения χz2 для которых выполняется условие
,
где pz– заданное значение p.
Схема применения критерия к оценке согласованности теоретического и статистического распределений сводится к следующему:
определяется мера расхождения χ2набл по формуле
определяется число степеней свободы r как число разрядов k минус число наложенных связей s:
r=k – s
по r и заданному малому значению p по таблице определяется значение χ2крит для которого справедливо
если то гипотезу можно признать как не противоречащей опытным данным, в противном случае гипотеза отбрасывается как неправдоподобная.
Насколько мала должна быть вероятность p для того, чтобы отбросить или пересмотреть гипотезу, – вопрс неопределенный; он не может быть решен из математических соображений, так же как и вопрос о том, насколько мала должна быть вероятность события для того, чтобы считать его практически невозможным. На практике, рекомендуется выбирать p≤0,1.