- •1Случайные события. Действия над событиями.
- •2.Классическое опред. Вероятности и ее свойства.
- •3.Аксиоматическое определение вероятности.
- •5.Условная вероятность. Независимость событий.
- •6.Формула полной вероятности. Формула Байеса.
- •7.Схема независимых испытаний Бернулли.
- •8.Предельные теоремы в схеме Бернулли.
- •10.Плотность распред.Вероятностей и ее свойства.
- •11.Математическое ожидание и его свойства.
- •12.Дисперсия и ее свойства.
- •13.Коэффициент корреляции и ковариация.
- •14.Моменты.
- •15.Осн. Дискретные распред.Случайных величин.
- •16.Равномерное и показательное распределения. Равномерное распределение.
- •Показательное распределение.
- •17.Нормальное распределение.
- •18.Двумерная функция распред. И ее свойства.
- •19.Двумерная плотность вероятности и ее свойства.
- •20.Независимость случайных величин.
- •21.Условный закон распределения.
- •22.Неравенство Чебышева. Сходимость случайных последовательностей.
- •23.Теорема Чебышева. Теорема Бернулли.
- •24.Центральная предельная теорема.
- •25.Выборочный метод.
- •26.Эмпирическая функция распределения и ее свойства.
- •27.Гистограмма и полигон.
- •28.Числовые характеристики выборки.
- •29.Точечное оценивание
- •30.Доверительные интервалы
- •31.Распределения , Стьюдента и Фишера.
- •33.Доверительные интервалы для оценки математического ожидания нормального распределения при неизвестном .
- •34.Проверка статистических гипотез.
- •35.Построение критической области.
- •36.Критерий согласия Пирсона.
- •37.Вычисления теоретических частот для нормального распределения.
- •38.Сравнение дисперсий двух нормальных выборок.
- •39.Сравнение средних двух нормальных выборок (критерий Стьюдента).
- •40.Дисперсионный анализ.
- •41.Парная регрессия.
- •42.Парный коэффициент корреляции, его свойства.
- •43.Проверка гипотезы о достоверности выборочного коэффициента корреляции.
- •44.Нелинейная парная регрессия.
37.Вычисления теоретических частот для нормального распределения.
Пусть имеется выборка объема n, и есть основание предположить, что она имеет нормальное распределение. Для вычисления теоретических частот необходимо выполнить действия, указанные ниже.
находим максимальное и минимальные значения значение выборки, размах варьирования.
Для определения количества интервалов группировки k воспользуемся формулой Стерджеса: .
Тогда ширину частичных интервалов находим из формулы .
Число k округляется в сторону наибольшего целого числа. Интервалы строятся таким образом, чтобы и входили внутрь интервалов. Для этого в качестве левой границы первого интервала можно взять , а в качестве правой границы последнего интервала . В качестве частоты вариационного ряда записывают число наблюдений, попавших в каждый промежуток.
2. Для того, чтобы получить оценки параметров и перейдем к дискретному ряду, взяв в качестве варианты Х ряда середины построенных интервалов . В итоге получим последовательность равноотстоящих вариант и соответствующих им частот:
|
* |
* |
… |
* |
|
|
|
… |
|
Несмещенной оценкой матожидания является исправленное выборочное среднее , а дисперсии – исправленная выборочная дисперсия s2.
, или .
3. Нормируем случайную величину Х, перейдя к величинам
и , .
Причем наименьшее значение будем считать равным , а наибольшее значение - , так как теоретическое нормальное распределение принимает значения на числовой оси.
4. Вычислим теоретические вероятности pi попадания Х в интервалы : ,
где , - функция Лапласа.
5. Рассчитаем теоретические частоты .
Замечания
1 Т.к.норм распр принимает знач от до + то буде считать что
ф-ция Лапласа не четная и асимптотическая
38.Сравнение дисперсий двух нормальных выборок.
Рассмотрим несколько критериев однородности. Пусть имеется 2 выборки X и Y объемами n1 и n2 и пусть ставится задача сравнить их функции распределения.H0:F1(x)=F2(x)
Такого рода задания часто называют выявлением отклика на воздействия. Например, Наиболее хорошо разработанными являются методы выявления однородности для нормально распределенных выборок. Если выборки распределены нормально, то выявление однородности сводится к сравнению параметров а иσ. Эти методы называются параметрическими. Если о распределении изучаемых выборок ничего нельзя сказать, то применяются непараметрические методы, где не учитываются исходные количественные данные, а только уравнение <,>.
Пусть выборки X и Y распределены нормально с параметрами а1и σ1 ; а2 σ2соответсвенно.X~N(а1,σ 1), Y~N(а2,σ 2).
Гипотеза H0 будет справедлива, если будут равны параметры а1= а2; σ1=σ2
Сравним сначала дисперсии этих выборок H0: σ21=σ22
Несмещенной и состоятельной оценкой дисперсии является исправленная выборочная дисперсия.
Следующая гипотеза H0: S21=S22
Сравнение дисперсий всегда осуществляется путем вычисления их отношения. Можно показать, что при H0 эта случайная величина имеет распределение Фишера с k1 и k2 числом степеней свободы.
F= ~F(k1,k2) Причем k1=n1-1, k2=n2-1, S21>S22
Пусть H1: S21>S22, т.е. правосторонняя критическая область. Fk(Kкр)=1-α
Проверка H0 осуществляется следующим образом:
Вычисляется наблюдаемое значение критерия,
Выбирается уровень значимости αи по таблице критических точек распределения Фишера находят Fкр(α,k1,k2)
Если Fнабл> Fкр , то H0 отвергаем и принимаем конкурирующую.
2. Пусть H1: S21 S22 -. двусторонняя критическая область.
В этом случае поступают аналогично, только Fкр(α/2,k1,k2)