- •1. Основные понятия и особ-ти эконометрического метода
- •2. Типы экономических данных, используемых в эконометрических исследованиях.
- •3. Специфика экономических данных.
- •4. Классификация эконометрических моделей.
- •5. Основные этапы построения эконометрических моделей.
- •6. Функциональные и стохастические типы связей. Ковариация, корреляция
- •7. Анализ линейной стат-кой связи экономических данных, корреляция, вычисление коэф-в корреляции. Проверка значимости
- •8. Измерение тесноты связи между показателями. Анализ матрицы коэффициентов парной корреляции.
- •9. Регрессионный анализ. Зависимые и независимые переменные
- •10. Предпосылки применения мнк.
- •2. В модели ( ) возмущение (или зависимая переменная ) есть величина случайная, а объясняющая переменная - величина неслучайная.
- •11. Свойства оценок мнк
- •12. Лин модель парной регрессии. Оценка параметров модели с пом мнк.
- •13. Показатели качества регрессии модели парной регрессии.
- •14. Анализ статистической значимости параметров модели парной регрессии.
- •15. Интервальная оценка параметров модели парной регрессии.
- •16. Проверка выполнения предпосылок мнк.
- •17. Интервалы прогноза по лин ур-нию парной регрессии. (Прогнозирование с применением ур-ния регрессии)..
- •18. Понятие и причины гетероскедастичности. Последствия гетероскедастичности. Обнаружение гетероскедастичности.
- •19. Нелинейная регрессия. Нелинейная модель и их линеаризация.
- •21. Мультиколлинеарность. Ее последствия. Способы обнаружения. Способы избавления.
- •20. Модель множественной регрессии. Выбор вида модели и оценка ее параметров
- •22. Отбор факторов при построении множественной регрессии. Процедура пошагового отбора переменных.
- •23. .Модель множеств регрессии.Выбор вида модели и оценка ее параметров.
- •24. Оценка параметров множественной регрессии методом наименьших квадратов (мнк). Свойства оценок мнк.
- •25. Понятие и причины автокорреляции остатков. Последствия автокорреляции остатков. Обнаружение автокорреляции остатков.
- •26. Проверка качества многофакторных регрессионных моделей. Оценка качества всего ур-ния регрессии.
- •27. Проверка качества многофакторных регрессионных моделей.Коэф-т детерминации r2. Скорректированный r2. Проверка гипотез с пом т-статистик и ф-статистик.
- •28. Оценка существенности параметров линейной регрессии.
- •29. Оценка влияния факторов на зависимую переменную (коэф-ты эл-ти,бета коэф-ты)
- •30. Анализ эк объектов и прогнозирование с помощью модели множ регрессии.
- •32. Регрессионные модели с переменной структурой (фиктивные переменные)
- •33. Многомерный статистический анализ. Задачи классификации объектов: кластерный анализ, дискриминантный анализ.
- •34. Мса. Задачи снижения размерности: факторный анализ, компонентный анализ.
- •35. Системы линейных одновременных уравнений (соу). Взаимозависимые и рекурсивные системы.
- •36. Косвенный мнк
- •37. Системы линейных одновременных уравнений.Условия идентификации
17. Интервалы прогноза по лин ур-нию парной регрессии. (Прогнозирование с применением ур-ния регрессии)..
Регрессионные модели могут быть использованы для прогнозирования возможных ожидаемых значений зависимой переменной.
Прогнозируемое значение переменной получается при подстановке в уравнение регрессии ожидаемой величины фактора .
Данный прогноз называется точечным. Значение независимой переменной не должно значительно отличаться от входящих в исследуемую выборку, по которой вычислено уравнение регрессии.
Вероятность реализации точечного прогноза теоретически равна нулю. Поэтому рассчитывается средняя ошибка прогноза или доверительный интервал прогноза с достаточно большой надежностью.
доверительные интервалы, зависят от следующих параметров:
- стандартной ошибки ,
- удаления от своего среднего значения ,
- количества наблюдений n
- и уровня значимости прогноза α.
В частности, для прогноза будущие значения с вероятностью (1 - α) попадут в интервал
Расположение границ доверительного интервала показывает, что прогноз значений зависимой переменной по уравнению регрессии хорош только в случае, если значение фактора Х не выходит за пределы выборки. Иными словами, экстраполяция по уравнению регрессии может привести к значительным погрешностям.
18. Понятие и причины гетероскедастичности. Последствия гетероскедастичности. Обнаружение гетероскедастичности.
Гомоскедастичность – постоянство дисперсии остатков по отношению к фактическим значениям фактора или показателя. Остатки называются гомоскедастичными, если они сосредоточены в виде горизонтальной полосы около оси xi, в противном случае остатки называют гетероскедастичными. Для исследования гомоскедастичности применяются различные тесты. Один из них называется тест Голдфельда-Квандта: 1) Упорядочение значений показателя у по степени возрастания фактора х. 2) Из упорядоченной совокупности убирают несколько «с» центральных значений: , р – число оцениваемых в модели параметров. В результате, получается 2 совокупности данных, в одной из них значения фактора будет наименьшими, а в другой – наибольшими. 3) Для каждой совокупности строят модель регрессии, по которой находят остатки: . Пусть S1 – большая сумма квадратов ошибок, а S2 – меньшая. 4) Определим отношение . 5) Полученное значение R сравнивают с табличным значением F-критерия Фишера. Если Fтабл<R, то предпосылка о гомоскедастичности нарушена. Чем больше R по отношению к Fтабл, тем более нарушена данная предпосылка. .
19. Нелинейная регрессия. Нелинейная модель и их линеаризация.
y=f(x) – общий вид. Если в качестве f использовать нелинейную математическую зависимость, то получиться нелинейная модель парной регрессии. Различают 2 класса нелинейных моделей:
1.модели нелинейные относительно фактора, но линейные относительно параметров:
*полиномиальные: у=а0+а1х+а2х2+а3х3+…. Для перехода к линейной функции применяют простую замену переменных (х1=х2, х2=х3), у=а0+а1х+а2х1+а3х2…
*гиперболические: у=а0+а1/х, (х1=1/х); у=а0+а1х1.
степенную модель: у=ахв;
показательную: у=авх;
экспоненциальную: у=кеа+вх.
Модели являются нелинейными как относительно фактора, так и относительно параметра. Для их линеаризации использую процедуру логарифмирования. Таким образом, общая схема оценивания нелинейных моделей следующая:
1,линеаризация функции (простой заменой или логарифмированием);
2,оценка параметров линейной модели МНК;
3,обратный переход к исходному виду модели.
Различают 2 класса нелинейных регрессий:
-регрессии нелинейные относительно включенных в анализ объясняющих переменных, но линейные по оцениваемым параметрам;
-регрессии, нелинейные по включенным параметрам.
Примером нелинейной регрессии по включаемым в нее объясняющим переменным могут служить следующие функции:
Полиномы разных степеней: y=a+bx+cx2+ε, y=a+bx+cx2+dx3+ ε;
Равносторонняя гипербола:
К нелинейным регрессиям по оцениваемым параметрам относятся функции:
Степенная y=axb ε
Показательная y=abx ε
Экспоненциальная у=уa+bx ε
Линеаризация нелинейной модели представляет собой преобразование используемой модели в линейную путем замены переменных на нестепенные.Так, в параболе второй степени у=а0+а1х+а2х2+ ε заменяя переменные х=х1, х2=х2, получим двухфакторное уравнение линейной регрессии: у=а0+а1х1+а2х2+ ε, для оценки параметров используется МНК.