- •1. Предмет и задачи курса.
- •1.1 Определение эконометрики. Взаимосвязь с другими науками. Эконометрика и экономическая теория. Эконометрика и статистика. Эконометрика и экономико-математические методы.
- •Чем собственно занимается эконометрист?
- •1.2 Области применения эконометрических моделей. Методологические вопросы построения эконометрических моделей: обзор используемых методов.
- •2. Спецификация переменных в уравнениях регрессии.
- •2.1. Эконометрические модели: общая характеристика, различия статистического и эконометрического подхода к моделированию.
- •2. Регрессионные модели с одним уравнением.
- •3. Системы одновременных уравнений.
- •2.2.Спецификация переменных в уравнение регрессии. Ошибки спецификации.
- •3. Парная и множественная регрессия.
- •3.1.Понятие о функциональной, статистической и корреляционных связях. Основные задачи корреляционно-регрессионного анализа.
- •3.2. Уравнение регрессии, его смысл и назначение. Выбор типа математической функции при построении уравнения регрессии.
- •3.3 Линейная модель парной регрессии. Метод наименьших квадратов (мнк). Свойство оценок мнк.
- •Статистические свойства оценок метода наименьших квадратов.
- •Дополнительное предположение о нормальном распределении ошибок
- •Свойств выборочных вариаций (дисперсий) и ковариаций.
- •Свойства остатков
- •Несмещенность мнк-оценок
- •Состоятельность оценок
- •Эффективность (оптимальность) оценок
- •Несмещённость.
- •Эффективность.
- •Противоречия между несмещённостью и минимальной дисперсией.
- •Влияние увеличения размера выборки на точность оценок.
- •Состоятельность.
- •3.4.Ковариация. Коэффициент ковариации. Показатели качества регрессии: линейный коэффициент регрессии, коэффициент детерминации.
- •3.5.Стандартная ошибка уравнения регрессии. Оценка статистической значимости показателей корреляции, параметров уравнения регрессии. Дисперсионный анализ. Критерии Фишера и Стьюдента.
- •Интервалы прогноза по линейному уравнению регрессии.
- •3.6. Понятие о множественной регрессии. Классическая линейная модель множественной регрессии (клммр). Определение параметров уравнения множественной регрессии методом наименьших квадратов.
- •Классическая модель множественной линейной регрессии.
- •Предпосылки классической многомерной линейной регрессионной модели.
- •Выбор формы уравнения регрессии.
- •Частные уравнения регрессии
- •Множественная корреляция
- •Частная корреляция
- •3.8. Оценка качества модели множественной регрессии: f-критерий Фишера, t-критерий Стьюдента. Мультиколлинеарность. Методы устранения мультиколлинеарности.
- •Глава 4. Предпосылки метода наименьших квадратов
- •4.1. Исследование остатков величин регрессии.
- •4.2. Проблема гетероскедастичности. Её экономические причины и методы выявления.
- •4.3. Линейные регрессионные модели с гетероскедастичными и автокоррелированными остатками.
Статистические свойства оценок метода наименьших квадратов.
Поскольку полученные опенки a и b коэффициентов линейной регрессии опираются на статистические данные и являются случайными величинами, то естественно установить свойства названных оценок; как случайных величин. Более того, не выяснив этих свойств, невозможно сделать обоснованные выводы относительно качества и надежности полученных оценок. Необходимо, в частности, определить такие их статистические характеристики, как математическое ожидание и дисперсия. К желательным свойствам оценок относятся также несмещенность и состоятельность. Далее, если бы удалось установить вид распределения (плотности распределения) оценок, можно было бы построить доверительные интервалы для истинных значений параметров регрессии (т. е. получить интервальные оценки коэффициентов) и реализовать процедуры проверки гипотез относительно их значений. Важную роль играет также изучение статистических свойств остатков оцененной регрессии.
Все эти задачи можно решить, основываясь на некоторых правдоподобных теоретических предпосылках (гипотезах) модели, выполнение которых на практике подлежит проверке с помощью специально разработанных для этого статистических процедур.
Предположение относительно независимых переменных
В дальнейшем будем допускать, что х— детерминированная (неслучайная) величина, т. е. значения независимых переменных заранее известны. Данное предположение (предпосылка), к сожалению, на практике при моделировании реальных социально-экономических процессов часто не выполняется. Это связано с тем, что здесь в качестве независимых переменных часто выступают стохастические неконтролируемые величины, такие как интенсивность потока покупателей (в одном из примеров главы 1) или рыночный индекс в рыночной модели, который также является случайной величиной. При нарушении вышеупомянутой предпосылки ряд «хороших» свойств оценок сохраняется (при некоторых условиях), но в отдельных случаях требуется корректировка модели (оценок).
Предположения относительно случайной составляющей модели
При выполнении предпосылки относительно переменной х статистические свойства оценок параметров и зависимой переменной, а также, остатков, целиком определяются вероятностными свойствами случайной составляющей регрессионной модели. Относительно случайной составляющей в классическом регрессионном анализе предполагают выполнение следующих условий, которые называются условиями Гаусса-Маркова и играют ключевую роль при изучении свойств оценок, полученных по методу наименьших квадратов.
1. Первое условие заключается в том, что математическое ожидание случайной составляющей во всех наблюдениях должно быть равно нулю. Формально это записывается так
М{𝜀t} = 0, для всех t = 1,2,...,п.
Смысл этого условия заключается в том, что не должно быть систематического смешения случайной составляющей. В линейной регрессии систематическое смешение линии регрессии учитывается с помощью введения параметра смешения и поэтому данное условие можно считать всегда выполненным.
2. Дисперсия случайной составляющей постоянна для всех наблюдений (т. е. не зависит от номера наблюдения). Это условие записывается так:
D{t}=M{t2}=σ2,
где дисперсия σ2 — величина постоянная.
Это свойство дисперсии ошибок называется гомоскедастичностью (однородностью) (запомните этот термин).
Выполнение условия гомоскедастичности при построении конкретных эконометрических моделей необходимо проверять с помощью специальных статистических процедур. Поскольку истинные дисперсии ошибок неизвестны, их можно лишь приближенно оценить на основе наблюдаемых (точнее, вычисляемых) значений остатков модели в каждом наблюдении. Таким образом, и свойство гомоскедастичности на практике проверяется (диагностируется) на самом деле для остатков модели, а не для истинных ошибок, и может выполняться лишь приближенно. Если условие гомоскедастичности не выполнено (т. е. дисперсия ошибок не постоянна), то говорят, что имеет место условие гетероскедастичности (запомните этот термин). Понятия «гомоскедастичность» и «гетероскедастичность» являются ключевыми в эконометрике.
Графическая иллюстрация понятий «гомоскедастичность» и «гетероскедастичность»
Рис. 2.6а
Гомоскедастичность Рис.2.6б Рис. 2.6в
Гетероскедастичность Гетероскедастичные остатки
3. Случайные составляющие модели для различных наблюдений некоррелированы. Это условие записывается таким образом:
M{I, j}=0, для всех i≠j (i,j=1,2,…,n)
Выполнение данного условия означает отсутствие систематической (статистической) связи между значениями случайного члена в любых двух наблюдениях. Это свойство на практике также проверяется с помощью статистических процедур на основе анализа остатков модели.
Если оно нарушается, то процедура оценки параметров должна быть скорректирована.
4. Четвертое условие Гаусса-Маркова записывается так:
M{xI , j}=0, для всех i и j,
и означает, что объясняющие переменные и случайные составляющие некоррелированы для всех наблюдений. Ранее мы предположили, что объясняющая переменная в модели не является стохастической. В этом случае четвертое условие выполняется автоматически.
Регрессионная модель с детерминированными регрессорами, удовлетворяющая предпосылкам Гаусса-Маркова, называется классической регрессионной моделью.