- •2.Автокорреляция случайного возмущения. Причины. Последствия.
- •4.Автокорреляция. Методы устранения автокорреляции
- •5.Алгоритм проверки адекватности парной регрессионной модели
- •6.Алгоритм проверки значимости регрессора в парной регрессионной модели
- •7.Алгоритм теста Голдфелда-Квандта на наличие (отсутствие) гетероскедастичности случайных возмущений.
- •8.Выбор типа математической функции при построении уравнения регрессии
- •9 Выведите формулы вычисления коэффициентов модели парной регрессии
- •10.Выведите формулы вычисления параметров модели парной регрессии
- •11.Гетероскедастичность - понятие, проявление и меры устранения.
- •12.Гетероскедастичность случайного возмущения. Причины. Последствия. Тест gq.
- •13.Двухшаговый метод наименьших квадратов для оценки параметров структурной формы модели
- •21.Индивидуальная и интервальная оценка индивидуального значения зависимой переменной
- •22.Интервальная оценка параметров уравнения парной регрессии
- •23.Классическая парная регрессионная модель. Спецификация модели. Теорема Гаусса – Маркова.
- •24.Ковариация, коэффициент корреляции и индекс детерминации
- •25.Количественные характеристики взаимосвязи пары случайных переменных.
- •26. Косвенный метод наименьших квадратов для оценки параметров структурной формы модели
- •28. Коэффициент корреляции и индекс детерминации в регрессионной модели.
- •29. Линейная модель множественной регрессии
- •30. Метод Монте-Карло, его применение в эконометрике
- •31. Метод наименьших квадратов: алгоритм метода; условия применения. Обобщённый метод наименьших квадратов
- •32. Модели с бинарными (фиктивными) переменными.
- •33. Моделирование тенденции временных рядов (аналитическое выравнивание)
- •34. Мультиколлинеарность факторов – понятие, проявление и меры устранения
- •35. Назначение теста Голдфелда-Квандта, этапы его проведения.
- •36. Нелинейная модель множественной регрессии Кобба-Дугласа. Оценка её коэффициентов.
- •37.Нелинейная регрессия (линеаризация, оценка параметров)
- •38.Ожидаемое значение случайной переменной, её дисперсия и среднее квадратическое отклонение.
- •39.Основные числовые характеристики вектора остатков в классической множественной регрессионной модели
- •40.Отражение в модели влияния неучтённых факторов и времени.
- •42.Оценка адекватности полученной эконометрической модели (см. 5)
- •43.Оценка коэффициентов модели Самуэльсона-Хикса
- •44.Оценка параметров множественной регрессионной модели методом наименьших квадратов.
- •45. Оценка параметров парной регрессионной модели методом наименьших квадратов.
- •46.Оценка параметров эконометрической модели
- •47.Оценка статистической значимости коэффициентов модели множественной регрессии. (см. 6)
- •48.Подбор объясняющих переменных множественной линейной модели. Алгоритм исключения квазинеизменных переменных
- •49.Подбор объясняющих переменных множественной линейной модели. Метод анализа матрицы коэффициентов корреляции.
- •50.Подбор переменных в модели множественной регрессии на основе метода оценки информационной ёмкости.
- •51.Понятие гомоскедастичности и гетероскедастичности случайных возмущений, их графическая интерпретация.
- •52.Порядок оценивания линейной модели множественной регрессии методом наименьших квадратов (мнк) в Excel
- •53.Последствия гетероскедастичности. Тест Голдфелда-Квандта.
- •54.Предпосылки метода наименьших квадратов
- •55.Применение обобщенного метода наименьших квадратов (омнк) для случая гетероскедастичности остатков.
- •56.Применение теста Стьюдента в процедуре подбора переменных в модели множественной регрессии.
- •57.Применение фиктивных переменных при исследовании сезонных колебаний: спецификация модели, экономический смысл параметров при фиктивных переменных.
- •58 Принципы спецификации эконометрических моделей и их формы
- •59.Проблема мультиколлинеарности в моделях множественной регрессии. Признаки мультиколлинеарности.
- •60.Проверка качества эконометрической модели См.5
- •61.Прогнозирование экономических переменных. Проверка адекватности модели. См.5
- •62 Простейшие модели временных рядов. Их свойства
- •63.Регрессионные модели с фиктивными переменными.
- •64.Роль вектора и матрицы корреляции множественной линейной модели при подборе объясняющих переменных.
- •65.Свойства дисперсии случайной переменной
- •66.Случайные переменные и их характеристики.
- •67.Смысл и значение множественной регрессии в эконометрических исследованиях. Выбор формы уравнения множественной регрессии.
- •68 Составление спецификации модели временного ряда
- •69.Спецификация и оценивание мнк эконометрических моделей нелинейных по параметрам
- •70 Спецификация моделей со случайными возмущениями и преобразование их к системе нормальных уравнений
- •71.Способы корректировки гетероскедастичности. Метод взвешенных наименьших квадратов.
- •72.Статистические свойства оценок параметров парной регрессионной модели.
- •73.Статистические характеристики выборки и генеральной совокупности статистических данных. Их соотношения.
- •74.Суть метода наименьших квадратов. Его графическое пояснение
- •75.Схема Гаусса – Маркова.
- •76.Схема построения эконометрической модели.
- •77.Теорема Гаусса – Маркова.
- •78.Тест Дарбина – Уотсона, последовательность его выполнения.
- •79.Тест Стьюдента.
- •80. Типы переменных в эконометрических моделях. Структурная и приведённая формы спецификации эконометрических моделей.
- •81. Устранение автокорреляции в парной регрессии. (см. 4)
- •82. Функция регрессии как оптимальный прогноз.
- •83. Цели и задачи эконометрики. Этапы процесса эконометрического моделирования. Классификация эконометрических моделей.
- •84. Эконометрика, её задача и метод.
- •85. Эконометрическая инвестиционная модель Самуэльсона-Хикса.
- •87. Этапы исследования зависимостей между экономическими явлениями при помощи эконометрической модели. Принципы спецификации модели. Формы эконометрических моделей.
- •88. Этапы построения эконометрических моделей
64.Роль вектора и матрицы корреляции множественной линейной модели при подборе объясняющих переменных.
Объясняющие переменные в линейной эконометрической модели должны обладать следующими свойствами:
• иметь высокую вариабельность;
• быть сильно коррелированными с объясняемой переменной;
• быть слабо коррелированными между собой;
• быть сильно коррелированными с представляемыми ими другими переменными, не используемыми в качестве объясняющих*.
Объясняющие переменные подбираются с помощью статистических методов.
Процедура подбора переменных состоит из следующих этапов:
-
На основе накопленных знаний составляется множество так называемых потенциальных объясняющих переменных (первичных переменных), в которое включаются все важнейшие величины, влияющие на объясняемую переменную. Такие переменные будем обозначать Х1 Х2,.., Хт.
-
Собирается статистическая информация о реализациях как объясняемой переменной, так и потенциальных объясняющих переменных. Формируется вектор у наблюдаемых значений переменной Y и матрица X наблюдаемых значений переменных Х1, Х2, ..., Хт в виде
3. Исключаются потенциальные объясняющие переменные, характеризующиеся слишком низким уровнем вариабельности.
-
Рассчитываются коэффициенты корреляции между всеми рассматриваемыми переменными.
-
Множество потенциальных объясняющих переменных редуцируется с помощью выбранной статистической процедуры
Вектор и матрица коэффициентов корреляции
Для оценивания силы линейной зависимости объясняемой переменной Y от потенциальных объясняющих переменных Х1, Х2, .., Хт рассчитываются коэффициенты корреляции
Эти коэффициенты представляются в виде вектора корреляции:
Коэффициенты корреляции между потенциальными объясняющими переменными Х1, Х2, ..., Хт рассчитываются по формуле
образуют матрицу корреляции R:
Матрица R симметрична, т. е. rij= rji
65.Свойства дисперсии случайной переменной
Дисперсией D(X) случайной величины Х называется математическое ожидание квадрата её отклонения от математического ожидания: D(X)=M[X-M(X)]2 или D(X)=M(X-a)2 где a=M(X).
(Для дисперсии СВ Х используется также обозначение Var(X).)
Дисперсия характеризует отклонение (разброс, рассеяние, вариацию) значений СВ относительно среднего значения.
Если СВ Х – дискретная с конечным числом значений, то
.
Дисперсия D(X) имеет размерность квадрата СВ, что не всегда удобно. Поэтому в качестве показателя рассеяния используют также величину .
Свойства дисперсии СВ:
1) D(C)=0, где C – постоянная величина;
2) D(kX)=k2D(X);
3) D(X)=M(X2)-a2 где a=M(X);
4)D(X+Y)=D(X-Y)=D(X)+D(Y), где X и Y – независимые случайные величины.
66.Случайные переменные и их характеристики.
Переменная величина х с областью изменения Х называется случайной, если свои возможные значения q из множества Х переменная х принимает в результате некоторого опыта со случайными элементарными исходами вида w:х=q. Это элементарное событие означает, что переменная величина х в опыте приняла значение q.
Случайная переменная именуется дискретной случайной величиной, если множество Х состоит из конечного или счетного количества констант qi . Случайная переменная х именуется непрерывной случайной переменной, если множество Х является промежутком числовой прямой и вероятность каждого элементарного исхода равна 0.
Полной характеристикой случайной переменной х служит ее дифференциальный закон распределения. Так называется функция Px(q) скалярного аргумента q, определенная на всей числовой прямой, характеризующая объективную возможность появления в опыте значений q случайной переменной х. Если х – дискретная случайная переменная, то
Cледовательно Рх (qi) –это вероятность появления в опыте значения qi случайной переменной х. Функция именуется вероятностной функцией дискретной случайной переменной х.
Так же важную роль имеют две количественные характеристики случайной переменной х: математическое ожидание (или среднее значение) и дисперсия.
Мат.ожидание:
- Определение взвешенного среднего E(X) для ожидаемого значения X:
E(X) – это константа, вокруг которой рассеяны возможные значения q случайной переменной х.
Математическое ожидание функции дискретных случайных величин:
Определение E[g(X)], ожидаемого значения функции от X:
Пример:
Дисперсия и стандартное отклонение:
Дисперсия – это средний квадрат разброса возможных значений случайной переменной х относительно ее ожидаемого значения. Положительный квадратный корень из дисперсии называется средним квадратическим отклонением.
sх2 = E [(X - m)2] - дисперсия или sх2 = E(X2) - m2
sх – стандартное отклонение