- •1Случайные события. Действия над событиями.
- •2.Классическое опред. Вероятности и ее свойства.
- •3.Аксиоматическое определение вероятности.
- •5.Условная вероятность. Независимость событий.
- •6.Формула полной вероятности. Формула Байеса.
- •7.Схема независимых испытаний Бернулли.
- •8.Предельные теоремы в схеме Бернулли.
- •10.Плотность распред.Вероятностей и ее свойства.
- •11.Математическое ожидание и его свойства.
- •12.Дисперсия и ее свойства.
- •13.Коэффициент корреляции и ковариация.
- •14.Моменты.
- •15.Осн. Дискретные распред.Случайных величин.
- •16.Равномерное и показательное распределения. Равномерное распределение.
- •Показательное распределение.
- •17.Нормальное распределение.
- •18.Двумерная функция распред. И ее свойства.
- •19.Двумерная плотность вероятности и ее свойства.
- •20.Независимость случайных величин.
- •21.Условный закон распределения.
- •22.Неравенство Чебышева. Сходимость случайных последовательностей.
- •23.Теорема Чебышева. Теорема Бернулли.
- •24.Центральная предельная теорема.
- •25.Выборочный метод.
- •26.Эмпирическая функция распределения и ее свойства.
- •27.Гистограмма и полигон.
- •28.Числовые характеристики выборки.
- •29.Точечное оценивание
- •30.Доверительные интервалы
- •31.Распределения , Стьюдента и Фишера.
- •33.Доверительные интервалы для оценки математического ожидания нормального распределения при неизвестном .
- •34.Проверка статистических гипотез.
- •35.Построение критической области.
- •36.Критерий согласия Пирсона.
- •37.Вычисления теоретических частот для нормального распределения.
- •38.Сравнение дисперсий двух нормальных выборок.
- •39.Сравнение средних двух нормальных выборок (критерий Стьюдента).
- •40.Дисперсионный анализ.
- •41.Парная регрессия.
- •42.Парный коэффициент корреляции, его свойства.
- •43.Проверка гипотезы о достоверности выборочного коэффициента корреляции.
- •44.Нелинейная парная регрессия.
41.Парная регрессия.
Интересует установление взаимосвязи между двумя признаками X и Y.
X и Y могут быть независимы, связаны между собой функциональной либо корреляционной зависимостью. При корреляции зависимость изменений каждого отдельного значения Х необязательно влечет за собой изменение Y, однако изменение приводит к изменению .
Зависимость вида y=f(x)+ , - ошибка оценки.
Чтобы установить вид зависимости строится поле корреляции. На XOY наносят координаты (xi, yj) и по расположению точек делают вывод о виде зависимости.
Пусть вид зависимости линейный:
Коэффициенты b0 и b1 найдем по методу наименьших квадратов
где xi , yi – выборочные значения; n – об. Выборки.
теоретические значения y.
Найдем b0 и b1 такие, при которых функция S достигает минимума.
{
Перейдем к средним значениям, поделив на n.
{
(2)
Методика построения уравнения регрессии:
42.Парный коэффициент корреляции, его свойства.
(4)
Коэффициент обладает все теми же свойствами, что и теоретический коэффициент корреляции.
если x и y независимы, то 0.
-1<= 1
если x и y связаны линейной зависимостью, т.е. при , то
b>0, =1 b<0, =-1
Таким образом коэффициент является количественной характеристикой зависимости x и y. Чем ближе к единице, тем теснее и ближе к линейной зависимости между X и Y.
43.Проверка гипотезы о достоверности выборочного коэффициента корреляции.
Пусть на выборке объема n найден коэффициент корреляции X и Y и он отличен от 0. Возможно, при этом, что генеральный коэффициент корреляции равен 0, а выборочное отличие от 0 случайно.
Проверим
H0: =0 H1:
Для проверки гипотезы H0 используем свойство T
При справедливости H0 эта случайная величина имеет распределение Стьюдента с (n-2) числом степеней свободы. Проверка H0 осуществляется следующим образом
вычисляется наблюдаемое значение критерия
по таблице критических точек распределения Стьюдента
max
|Тнабл|>Tкр, то H0 отвергается и принимается H1, следовательно X и Y связаны между собой достоверной корреляционной зависимостью. |Тнабл|<Tкр, нет основания отвергнуть H0, то недостоверно отличается от 0 (случайно) и между X и Y нет корреляционной зависимости. Методика построения уравнения регрессии
44.Нелинейная парная регрессия.
В случае линейной зависимости применение метода наим-х квадратов (МНК) приводит к решению линейной алгебр-й с-мы относительно и , она имеет единственное решение. Кроме этого, оценки коэф-тов и явл-ся несмещенными, самостоят-ми и эффективными.
В случае нелинейной зав-сти применение МНК приводит к решению нелинейной с-мы, к-я в общем случае не имеет решения в известных аналит-х ф-ях, тогда прим-ся приближ-е методы для вычисления оцениваемых коэф-тов.
1. Пусть . Обозначим ,тогда получим множ-ю лин-ю модель
.
2. Обратнопропорциональная зависимость
. , .
3. Степенная модель
,
,
, , , .
.
4. Показательная
,
,
, , ,
.
Типичные задачи с нелинейной зав-стью:
1.Полиномеальная. Реально строятся полиномы (многочлены) для 2 и 3 степени, для больших степеней модели невозможно использовать для прогноза,т.к. . Пример: ф-ция издержек в зависимости от выпуска продукции описывается квадратической моделью.
2. Обратная пропорциональная зависимость. Взаимосвязь между ростом з/п и темпами инфляции, з/п работников физ-го труда и возрастом.
3. Степенная модель в экон-й лит-ре часто наз-ся произв-й ф-ей, т.к. как правило, этой моделью опис-ся взаимосвязь между показ-ми пр-ва.