- •1.Метод наименьших квадратов: алгоритм метода; условия применения.
- •2.Типы переменных в эконометрических моделях. Структурная и приведённая формы спецификации эконометрических моделей.
- •3. Статистические свойства оценок параметров парной регрессионной модели
- •4. Этапы построения эконометрических моделей.
- •5.Порядок оценивания линейной эконометрической модели из изолированного уравнения в Excel. Смысл выходной статистической информации сервиса Регрессия. (10) стр 41
- •6.Спецификация и оценивание мнк эконометрических моделей нелинейных по параметрам. (30) стр.24-25,
- •7. Классическая парная регресионная модель. Спецификация модели. Теорема Гаусса-Маркова.
- •8. Метод наименьших квадратов: алгоритм метода, условия применения.
- •9.Идентификация отдельных уравнений системы одновременных уравнений: порядковое условие. (30)
- •Необходимое условие идентифицируемости
- •10.Оценка параметров парной регрессионной модели методом наименьших квадратов. (10)
- •11.Фиктивные переменные: определение, назначение, типы.
- •12.Автокорреляция случайного возмущения. Причины. Последствия.
- •13.Алгоритм проверки значимости регрессора в парной регрессионной модели.
- •14.Интервальная оценка ожидаемого значения зависимой переменной в парной регрессионной модели.
- •15. Тест Чоу на наличие структурных изменений в регрессионной модели. (20) стр. 59,60
- •16. Алгоритм проверки адекватности парной регрессионной модели. (20) стр. 37, 79
- •17. Коэффициент детерминации в парной регрессионной модели.
- •18. Оценка параметров множественной регрессионной модели методом наименьших квадратов.
- •20. Гетероскедастичность случайного возмущения. Причины. Последствия. Тест gq(20)
- •21.Фиктивная переменная наклона: назначение; спецификация регрессионной модели с фиктивной переменной наклона; значение параметра при фиктивной переменной. (20) стр.65
- •22..Алгоритм теста Дарбина-Уотсона на наличие (отсутствие) автокорреляции случайных возмущений. (20) стр 33
- •23. Структурная и приведённая формы спецификации эконометрических моделей.
- •24. Гетероскедастичность случайного возмущения. Причины. Последствия. Алгоритм теста Голдфельда-Квандта на наличие или отсутствие гетероскедастичности случайных возмущений.
- •Алгоритм теста Голдфелда-Квандта на наличие (отсутствие) гетероскедастичности случайных возмущений.
- •25. Спецификация и оценивание мнк эконометрических моделей нелинейных по параметрам.
- •26. Способы корректировки гетероскедастичности. Метод взвешенных наименьших квадратов
- •27.Проблема мультиколлинеарности в моделях множественной регрессии.Признаки мультиколлениарности.
- •28.Что такое логит,тобит,пробит.
- •29. Что такое Метод наибольшего правдоподобия стр. 62.
- •30. Что такое стационарный процесс?
- •31.Свойства временных рядов.
- •32.Модели ar и var .
- •33. Идентифицируемость системы.
- •34. Настройка модели с системой одновременных уравнений.
- •35.Что такое метод Монте-Карло стр 53
- •36.Оценить качество модели по f, gq, dw (линейнные).Стр.33, 28-29
- •37. Оценка погрешностей параметров эконометрической модели методом Монте-Карло .
- •38. Отражение в модели влияния неучтённых факторов. Предпосылки теоремы Гаусса-Маркова.
- •39.Модели временных рядов. Свойства рядов цен акций на бирже (20) с.93.
- •40. Ожидаемое значение случайной переменной, её дисперсия и среднее квадратическое отклонение. (20) с.12-21
- •41. Оценка параметров парной регрессионной модели методом наименьших квадратов с использованием сервиса Поиск решения.
- •42. Проверка статистических гипотез, t-статистика Стьюдента, доверительная вероятность и доверительный интервал, критические значения статистики Стьюдента. Что такое “толстые хвосты”?
- •43.Проблема мультиколлинеарности в моделях множественной регрессии. Признаки мультиколлинеарности
- •44. Частные коэффициенты детерминации.
- •46. Экономический смысл коэффициентов линейного и степенного уравнений регрессии.
- •47.Оценка коэффициентов модели Самуэльсона-Хикса
- •48. Ошибки от включения в модель незначимых переменных или исключения значимых.С.80
- •49. Исследование множественной регрессионной модели с.74-79.
- •50. Мультиколлинеарность: чем плоха, как обнаружить и как бороться.
- •51. Признаки стационарности стохастического процесса. Что такое «Белый шум»? с.100
- •52. Структурная и приведённая формы спецификации эконометрических моделей.
- •53. Алгоритм проверки значимости регрессора в парной регрессионной модели. По t-статистике, по f-статистике.
- •54.Свойства рядов цен на фондовом рынке. Принципы построения портфеля Марковица с.93,102
- •55.Динамическая модель из одновременных линейных уравнений (привести пример) с.105.
- •56. Метод наибольшего правдоподобия: принципы и целесообразность использования
- •57. Этапы исследования модели множественной регрессии с.74-79.
56. Метод наибольшего правдоподобия: принципы и целесообразность использования
Метод наибольшего правдоподобия -- метод поиска модели, наилучшим в каком-то смысле образом описывающей обучающую выборку, полученную с некоторым неизвестным распределением.
Описание метода Пусть на вход подается некоторая величина x, а на выходе имеется величина y. Также существует условная вероятность , описывающая вероятность получить на выходе величинуy, если на вход была подана величина x. Если множество величин не дискретно, то условная вероятность заменяется на условную плотность распределения. Считается, что эта условная вероятность нам неизвестна. Пусть имеется некоторое множество моделей, описываемых различными условными вероятностями , гдеиграет роль индекса, приписываемого конкретной модели, и может вообще говоря иметь любую природу. Пусть также существует обучающая выборкапорождённая с неизвестной условной вероятностью. Причем, считается, что все пары порождаются независимо. Требуется на основании обучающей выборки выделить из множества моделей (то есть выбрать) ту, что наилучшим образом подходит к обучающей выборке.Функцией правдоподобия называется функция вида . Метод наибольшего правдоподобия состоит в том, что из множества моделей выбирается та, что максимизирует значение функции правдоподобия, т.е. выбирается значение параметра
Обоснование метода Заметим, что в силу независимости элементов обучающей выборки вероятность получить набор выходных значений при поданных на вход значенияхравняется. Из эвристических соображений понятно, что, чем ближе модель к истинной, тем больше должна быть эта величина. Функция правдоподобия является логарифмом этой величины. Можно также показать, что если среди множества моделей есть истинная, то максимумматематического ожидания функции правдоподобия действительно достигается на истинной модели.
57. Этапы исследования модели множественной регрессии с.74-79.
1. Построить корреляционную матрицу по всем переменным, включая время. Построить графики всех переменных в зависимости от времени. Выбрать вид модели.
2. Выбрать мультипликативную модель и линеаризовать её логарифмированием:
Ln Ŷ = Ln b0+ b1*LnX1+b2*LnX2+b3*LnX3+b4*LnX4
после переобозначения
Z^ = a + b1V1 + b2V2 +b3V3 + b4V4
3. Построить корреляционную матрицу
t V1 V2 V3 V4 Z
t 1
V1 0,995 1
V2 0,879 0,882 1
V3 0,926 0,932 0,968 1
V4 0,983 0,973 0,898 0,938 1
Z 0,924 0,912 0,661 0,774 0,877 1