- •Эконометрическая модель.
- •Измерения в экономике. Шкалы измерений.
- •Случайные события и случайные переменные. Распределение случайных величин.
- •Статистические характеристики случайных величин и их свойства.
- •Основные функции распределения.
- •Оценки статистических характеристик и их желательные свойства. (нету)
- •Проверка статистических гипотез.
- •Критерий и критическая область.
- •Мощность статистического критерия. Уровень значимости.
- •Модель линейной регрессии.
- •Свойства оценок параметров, полученных методом наименьших квадратов. Условия Гаусса – Маркова.
- •Коэффициент детерминации и его свойства.
- •Предположение о нормальном распределении случайной ошибки в рамках классической линейной регрессии и его следствия.
- •Прогнозирование по регрессионной модели и его точность. Доверительные и интервалы прогноза (с лекции)
- •Ковариационная матрица оценок коэффициентов регрессии.
- •19. Проверка значимости коэффициентов и адекватности регрессии для множественной линейной регрессионной модели.
- •20. Коэффициент множественной детерминации. Скорректированный коэффициент детерминации.
- •21. Проблемы спецификации регрессионной модели. Пошаговая регрессия.
- •22. Замещающие переменные. Фиктивные переменные.
- •Методы борьбы с мультиколлинеарностью.
- •Линеаризация регрессионных моделей путем логарифмических преобразований.
Свойства оценок параметров, полученных методом наименьших квадратов. Условия Гаусса – Маркова.
Условия Гаусса – Маркова:
1-е условие Гаусса—Маркова: M(ei) = 0 для всех наблюдений
Первое условие состоит в том, что математическое ожидание случайного члена в любом наблюдении должно быть равно нулю. Иногда случайный член будет положительным, иногда отрицательным, но он не должен иметь систематического смещения ни в одном из двух возможных направлений.
2-е условие Гаусса—Маркова: M(ei2) постоянна для всех наблюдений
Второе условие состоит в том, что дисперсия случайного члена должна быть постоянна для всех наблюдений. Иногда случайный член будет больше, иногда меньше, однако не должно быть априорной причины для того, чтобы он порождал большую ошибку в одних наблюдениях, чем в других.Эта постоянная дисперсия обычно обозначается σ2, а условие записывается следующим образом: M(ei2)=σ2
Величина σ2 конечно, неизвестна. Одна из задач регрессионного анализа состоит в оценке стандартного отклонения случайного члена. Если рассматриваемое условие не выполняется, то коэффициенты регрессии, найденные по обычному методу наименьших квадратов, будут неэффективны, и можно получить более надежные результаты путем применения модифицированного метода регрессии.
3-е условие Гаусса—Маркова: Cov (ei,ej) = 0 (i≠j)
Это условие предполагает отсутствие систематической связи между значениями случайного члена в любых двух наблюдениях. Например, если случайный член велик и положителен в одном наблюдении, это не должно обусловливать систематическую тенденцию к тому, что он будет большим и положительным в следующем наблюдении (или большим и отрицательным, или малым и положительным, или малым и отрицательным). Случайные члены должны быть абсолютно независимы друг от друга. В силу того, что Е (ei) = Е(ej) = 0, данное условие можно записать следующим образом: M(eiej) = 0 (i≠j).Если это условие не будет выполнено, то регрессия, оцененная по обычному методу наименьших квадратов, вновь даст неэффективные результаты.
4-е условие Гаусса—Маркова: случайный член должен быть распределен независимо от объясняющих переменных
Если это условие выполнено, то теоретическая ковариация между независимой переменной и случайным членом равна нулю. Так как Е(e) = 0, то Cov(xi,ei) = M{(хi – )(ei)} = M(xiei)- M(et) = M(xiui). Следовательно, данное условие можно записать также в виде: M(xiei) = 0
Подробнее:
регрессия модель линейна по параметрам (коэффициентам), корректно специфицирована, и содержит аддитивный случайный член.
случайный член имеет нулевое среднее.
все объясняющие переменные не коррелированны мо случайным членом.
наблюдаемые значения случайного члена не коррелированные друг с другом.
Случайный член имеет постоянную дисперсию
Ни одна из объясняющих переменных не является строгой линейной функцией других объясняющих переменных.
Случайный член распределен нормально (необязательное, но часто используемое условие)
Коэффициент детерминации и его свойства.
Для оценки качества подбора линейной функции рассчитывается квадрат линейного коэффициента корреляции , 0=< =<0. называемый коэффициентом детерминации. Если в выборке отсутствует видимая связь между у и х, то коэффициент R2 будет близок к нулю, а желательно, чтобы коэффициент R2 был как можно больше. В частности, мы заинтересованы в таком выборе коэффициентов а и Ь, чтобы максимизировать R2. Расчёт коэ-та детерминации связан с основным тождеством дисперсионного анализа
= ( +
-это сумма квадратов отклонений фактич.значений переменной у от её сред.значения(общая дисперсия)
( - это сумма квадратов отклонений теоретич. Значений переменной у от её сред значения (факторная дисперсия)
-это сумма квадратов остатков (е -остаточная дисперсия), которая хар-ет влияние неучтенных факторов.
= ( ДЕЛИМ НА
Соответственно величина 1 – R характеризует долю дисперсии y, вызванную влиянием остальных не учтенных в модели факторов.
Например = 0,982. Таким образом, уравнением регрессии объясняется 98,2% дисперсии результативного признака, а на долю прочих факторов приходится лишь 1,8% ее дисперсии (т.е. остаточная дисперсия). Максимальное значение коэффициента R2 равно единице. Это происходит в том случае, когда линия регрессии точно соответствует всем наблюдениям, так что , для всех i и все остатки равны нулю.