- •Оглавление
- •Тема 0. Введение (группа 3.3б) 4
- •Тема 1. Парная регрессия (группа 3.5а) 23
- •Тема 2. Множественная регрессия (группа 3.5б) 51
- •Тема 3. Нелинейная регрессия (группа 3.3а) 70
- •Тема 4. Системы регрессионных уравнений (группа 3.3б) 91
- •Тема 5. Прогнозирование временных рядов (группа 3.7ммэ) 102 Тема 0. Введение (группа 3.3б)
- •0.1. Эконометрика как наука.
- •0.2. История возникновения эконометрики
- •0.3.Элементы теории вероятности.
- •0.3.1. Вероятностные характеристики случайных переменных
- •0.3.2.Законы распределения:
- •0.3.3 Условное математическое ожидание
- •0.4. Элементы математической статистики
- •0.4.1.Оценивание «хороших» свойств оценок
- •1) Состоятельность оценок
- •2) Несмещенность оценок
- •3) Эффективность оценок
- •0.4.2. Проверка гипотез и интервальное оценивание
- •Тема 1. Парная регрессия (группа 3.5а)
- •1.1 Определение линейной однофакторной регрессии.
- •1.1.1.Основные понятия регрессионного анализа
- •1.1.2. Линейная однофакторная регрессия
- •1.1.3. Матричная запись линейной регрессии
- •1.1.4 Оценки параметров регрессии
- •1.1.5 Смысл коэффициента регрессии
- •1.2 Проверка адекватности ру
- •1.2.1 Показатели качества подгонки
- •1.2.2.Проверка гипотез относительно параметров ру
- •1.3 Предпосылки мнк (ls)
- •1.3.1. Общие положения мнк
- •1.3.2. Выполнение первой предпосылки мнк (случайный характер остатков)
- •1.3.4. Выполнение третьей предпосылки мнк (гомоскедастичность остатков)
- •1.3.5 Выполнение 4-го условия мнк (отсутствие автокорреляции остатков)
- •1.3.6 Выполнение 5-го условия мнк (нормальность остатков)
- •1.4. Устранение нарушения предпосылок мнк для оценки парной регрессии
- •1.4.1. Автокорреляция остатков
- •1.4.2.Гетероскедастичность остатков и избавление от нее
- •1 Подход: преобразование исходных данных
- •2 Подход: применение другого метода оценивания коэф-ов регрессии.
- •3 Подход) включение дисперсии в модель
- •1.4.3. Метод максимального правдоподобия.
- •Тема 2. Множественная регрессия (группа 3.5б)
- •2.1 Множественная линейная регрессия
- •2.1.1. Основные понятия
- •2.1.2. Методы оценивания коэффициентов линейной многофакторной регрессии.
- •2.2.Проверка адекватности уравнений линейной множественной регрессии
- •2.2.1. Проверка качества подборки мнк.
- •3) Коэффициент эластичности
- •2.2.2.Проверка гипотез для млр
- •2.2.3. Допущение выполнения мнк или получение «хороших» оценок
- •2.3. Мультиколлинеарность факторов
- •2.3.1. Обнаружение мультиколлинеарности
- •2.3.2 Избавление от мультиколлинеарности. Метод главных компонент
- •2.4.Учет качественных факторов
- •2.4.1.Множественные переменные
- •2.4.2. Фиктивные переменные
- •2.4.3. Структурные изменения тенденций. Тест Чоу.
- •2.4.4. Модели бинарного выбора
- •Тема 3. Нелинейная регрессия (группа 3.3а)
- •3.1.Виды нелинейной зависимости
- •3.1.1.Основные понятия
- •3.1.2. Методы оценивания линеаризуемых функций:
- •3.1.3. Нелинеаризуемые функции и методы их оценки
- •1.Квазиньютоновский
- •2.Симплекс-метод
- •3.Метод Хука-Дживса
- •3.2.Проверка адекватности нелинейной регрессии
- •3.2.1. Показатели качества подгонки
- •3.2.2. Проверка гипотезы о значимости нелинейных моделей
- •3.2.3. Проверка выполнения условий для получения «хороших» оценок методом оценивания
- •3.3.Выбор типа зависимости
- •3.3.1. Теоретические предпосылки
- •3.3.2. Процедура Бокса – Кокса и тест Зарембеки
- •Тест Зарембеки
- •3.3.3.Производственные функции (пф)
- •3.3.4. Коэффициент эластичности
- •3.4.Спецификация и прогноз регрессионных уравнений
- •3.4.1. Информационные критерии (критерий Акайке, Шварца)
- •3.4.2. Ложная регрессия
- •3.4.3. Прогноз по регрессионным моделям. Доверительный интервал.
- •3.4.4. Применение регрессионного анализа в хеджировании
- •Тема 4. Системы регрессионных уравнений (группа 3.3б)
- •4.1.Понятие и виды сру
- •4.1.1. Система независимых уравнений
- •4.1.2. Системы рекурсивных уравнений
- •4.2. Структурный и приведенный виды сру
- •4.3 Идентификация модели
- •4.4 Оценка параметров сру
- •4.4.1.Кмнк.
- •4.4.2.Дмнк.
- •4.4.3.Тмнк.
- •Тема 5. Прогнозирование временных рядов (группа 3.7ммэ)
1.4.2.Гетероскедастичность остатков и избавление от нее
Существует несколько подходов к решению проблемы гетероскедастичности:
1 Подход: преобразование исходных данных
Обычно исходные данные преобразуют к такому виду,чтобы модель обладала условием гомоскедастичности. Для этого либо логарифмируют исходные данные, либо переходят к безразмерным величинам путем деления на известную велечину той же размерности , что и исходные данные.
Например, с помощью цепных индексов:
Zi+1= yi+1/yi (4.4)
2 Подход: применение другого метода оценивания коэф-ов регрессии.
Таким методом является обобщенный мнк. Он учитывает переменную дисперсию.
Обозначается ОМНК(GLS) для объяснения процессов происходящих в текущем периоде.Причем лаговыми переменными могут быть как зависимые переменные, так и независимые.
Одним из методов устранения автокорреляции остатков является процедура Оркатта-Кокроуна.
Рассмотрим уравнение регрессиии
, (4.1)
где , (4.2)
где Hi – случайная компонента
Запишим уравнение (4.1) для предложеного периода i-1 и умножим все уравнения на :
Вычтим из (4.1)
По (4.2):
Пусть
Тогда (4.3)
Если известно , то можно найти и через уi, yi-1, xi, xi-1.
А затем рассчитать регрессию между и
Процедура Оркатто-Кокроуна
1.Оценивается уравнение (4.1) находятся коэффециенты и .И находят остатки
ОМНК принимается не только для оценки данных для которых существенна гетероскедостичность остатков, но и для данных, для которых имеется место автокорреляции остатков т.е оценки, оцененные ОМНК, будут обладать как свойством несмещенности, так и иметь наименьшее выборочное диспресии.
Предположим, что матожидание равно 0, а диспресия, которая изменяется , пропорционально величине хi
(4.5), где
–дисперсия ошибки при конкретном суммарном значении ф-ра.
– постоянная дисперсия ошибки при соблюдении условия гомоскедастичности остатков.
– коэффициент пропорциональности, изменяющийся с изменением ф-ра.
Тогда уравнение регрессии с дисперсии имеющий вид (4.5), можно преобразовывать в новое уравнение:
т.к Д=М((х-М(х))2 и Д=М( )
Для другого уравнения гетероскедостичность по-прежнему существует. Разделим данное уравнение на
Тогда дисперсия для полученного уравнения будет постоянной и равна
Обозначим
; (4.7)
Определение 4.1. Уравнение регрессии (4.6) с переменными вида (4.7) называется взвешенным уравнением регрессии, где весами являются выражение .
Оценка коэффициентов для точки 0 определенной регрессии осуществляется на основании взвешенной МНК (ВМНК), в которой следует минимизировать функционал (y-a-b xi)2 приравниваем к 0
Получаем систему нормальных уравнений для оценки а и b
Откуда следует
Как видно параметры регрессии определенные по формуле (4.8), полностью зависит от гипотезы выдвигаемой относительно коэффициентов пропорциональности К; обычно предполагается, что остатки I т.е имеем параметры для каждого уi
Функция , определяется по формуле (4.9) называется функцией максимального правдоподобия.
Иногда переходят к логарифмированной функции правдоподобия
Решение по ММП предполагает нахождение таких параметров , при которых функция правдоподобия достигает максимума, т.е находит оптимальное .Нахождение оптимальное в простых случаях производится с помощью методов матанализа (т.е приравнивающие к 0 первых производных:
В сложных случаях используется методы оптимального программирования (симплекс метод) или с помощью методов численного анализа, основных на интерактивных процедурах.
Для нахождения параметров линейной регрессии надо знать законы распределения либо зависимой переменной , либо остатков . Когда этот закон нормальный, из ММП пропорциональна значениям какого-то независимого ф-ла