Добавил:
Upload Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:
bilety-ekonmetrika.docx
Скачиваний:
33
Добавлен:
01.04.2015
Размер:
7.3 Mб
Скачать
    1. Согласно принципу метода наименьших квадратов, оценки инаходятся путем минимизации суммы квадратов

    2. по всем возможным значениям и при заданных (наблюдаемых) значениях.

    3. В результате применения МНК получаем формулы для вычисления параметров модели парной регрессии.

    4. (3)

    5. Такое решение может существовать только при выполнении условия

    6. что равносильно отличию от нуля определителя системы нормальных уравнений. Действительно, этот определитель равен

    7. Последнее условие называется условием идентифицируемости модели наблюдений , и означает, что не все значениясовпадают между собой. При нарушении этого условиявсе точки , лежат на одной вертикальной прямой

    8. Оценки иназываютоценками наименьших квадратов. Обратим внимание на полученное выражение для параметра . В это выражение входят суммы квадратов, участвовавшие ранее в определении выборочной дисперсии

    9. и выборочной ковариации так что, в этих терминах параметрможно получить следующим образом:

    10. ===

    11. =

  1. Уравнение множественной линейной регрессии в стандартизованном масштабе

    1. Другой вид уравнения множественной регрессии - уравнение регрессии в стандартизованном масштабе:

    2. ,

    3. где ,- стандартизованные переменные;

    4. - стандартизованные коэффициенты регрессии.

    5. К уравнению множественной регрессии в стандартизованном масштабе применим МНК. Стандартизованные коэффициенты регрессии (β-коэффициенты) определяются из следующей системы уравнений:

    6. Связь коэффициентов множественной регрессии со стандартизованными коэффициентамиописывается соотношением

    7. Параметр a определяется как

    8. Средние коэффициенты эластичности для линейной регрессии рассчитываются по формуле:

    9. .

    10. Для расчета частных коэффициентов эластичности применяется следующая формула:

    11. .

    12. Тесноту совместного влияния факторов на результат оценивает индекс множественной корреляции:

    13. =.

    14. Значение индекса множественной корреляции лежит в пределах от 0 до 1 и должно быть больше или равно максимальному парному индексу корреляции:

    15. .

    16. Индекс множественной корреляции для уравнения в стандартизованном масштабе можно записать в виде:

    17. =.

    18. При линейной зависимости коэффициент множественной корреляции можно определить через матрицу парных коэффициентов корреляции:

    19. =,

    20. Параметры уравнения множественной регрессии в задачах по эконометрике оценивают аналогично парной регрессии, методом наименьших квадратов (МНК). При применении этого метода строится система нормальных уравнений, решение которой и позволяет получать оценки параметров регрессии.

    21. При определении параметров уравнения множественной регрессии на основе матрицы парных коэффициентов корреляции строим уравнение регрессии в стандартизованном масштабе:

    22. в уравнении стандартизированные переменные

    23. Применяя метод МНК к моделям множественной регрессии в стандартизованном масштабе, после опрделенных преобразований получим систему нормальных уравнений вида

    24. Решая системы методом определителей, находим параметры — стандартизованные коэффициенты регрессии (бета - коэффициенты). Сравнивая коэффициенты друг с другом, можно ранжировать факторы по силе их воздействия на результат. В этом заключается основное достоинство стандартизованных коэффициентов в отличие от обычных коэффициентов регрессии, которые несравнимы между собой.

    25. В парной зависимости стандартизованный коэффициент регрессии связан с соответствующим коэфициентом уравнения зависимостью

    26. Это позволяет от уравнения в стандартизованном масштабе переходить к регрессионному уравнению в натуральном масштабе переменных:

    27. Параметр а определяется из следующего уравнения

    28. Стандартизованные коэффициенты регрессии показывают, на сколько сигм изменится в среднем результат, если соответствующий фактор xj изменится на одну сигму при неизменном среднем уровне других факторов. В силу того, что все переменные заданы как центрированные и нормированные, стандартизованные коэффициенты регрессии сравнимы между собой.

    29. Рассмотренный смысл стандартизованных коэффициентов позволяет использовать их при отсеве факторов, исключая из модели факторы с наименьшим значением.

    30. Компьютерные программы построения уравнения множественной регрессии позволяют получать либо только уравнение регрессии для исходных данных и уравнение регрессии в стандартизованном масштабе.

    31. 12. Понятие «статистическая значимость» параметров уравнения регрессии

    32. 13. Понятие «статистическая значимость» уравнения регрессии в целом

    33. Два в одном

    34. 14. Критерий Стьюдента

    35. 15. Оценка значимости параметров уравнения парной линейной регрессии

    36. 16. Оценка значимости параметров уравнения множественной регрессии

    37. 17. Общий критерий Фишера

    38. 18. Таблица дисперсионного анализа

    39. Оценка значимости уравнения регрессии обычно дается в виде таблицы дисперсионного анализа.

    40. Дисперсионный анализ результатов регрессии

        1. Источники

        2. вариации

        1. Число степеней

        2. свободы

        1. Сумма квадратов отклонений

        1. Дисперсия на одну степень свободы

        1. F - отношение

        1. фактиче-

        2. ское

        1. таблич-

        2. ное

        1. Факторная

        1. 1

        1. Остаточная

        1. n– 2

        1. F табл = F(α;1,n-2)

        1. Общая

        1. n– 1

    41. ВеличинаF – критериясвязана с коэффициентом детерминации R2. ЗначениеF – критерияможно выразить следующим образом:

    42. .

    43. Для расчёта коэффициента детерминации можно использовать формулу:

    44. .

    45. Максимальное значение коэффициента R2равно единице. Это происходит в том случае, когда линия регрессии точно соответствует всем наблюдениям, так чтодля всехiи все остатки равны нулю.

    46. Если в выборке отсутствует видимая связь между XиY, то коэффициент детерминации будет близок к нулю.

    47. 19. Показатели частной корреляции и детерминации

    48. 20. Частный f-критерий

    49. Значимость уравнения множественной регрессии в целом оценивается с помощью F- критерия Фишера:

    50. Частный F-критерий оценивает статистическую значимость присутствия каждого из факторов в уравнении. В общем виде для фактораxi частныйF-критерий определится как

    51. Оценка значимости коэффициентов чистой регрессии с помощью t-критерия Съюдента сводится к вычислению значения

    52. где mbi- средняя квадратическая ошибка коэффициента регрессииbi, она может быть определена по формуле:

    53. .

    54. При построении уравнения множественной регрессии может возникнуть проблема мультиколлинеарности факторов, их тесной линейной связанности.

    55. Считается, что две переменные явно коллинеарны, т.е. находятся между собой в линейной зависимости, если rxixj≥0,7. По величине парных коэффициентов корреляции обнаруживается лишь явная коллинеарность факторов. Наибольшие трудности в использовании аппарата множественной регрессии возникают при наличии мультиколлинеарности факторов. Чем сильнее мультиколлинеарность факторов, тем менее надежна оценка распределения суммы объясненной вариации по отдельным факторам с помощью метода наименьших квадратов.

    56. 21. Анализ случайных остатков в модели регрессии

    57. 22. Тест Парка

    58. 23. Тест Глейзера

    59. 24. Тест Уайта

    60. 25. Тест Гольдфельда-Квандта

    61. 26. Использование коэффициента ранговой корреляции Спирмена для выявления гетероскедастичности случайных остатков

    62. 27. Отбор факторов в модель множественной регрессии: требования к факторам; методы отбора.

    63. 28. Прогнозирование по уравнению регрессии (на примере парной линейной регрессии)

    64. 29. Прогнозирование по уравнению регрессии (общий случай)

    65. 30. Особенности нахождения параметров для нелинейных функций регрессии.

    66. 31. Применение МНК к одной из парных нелинейных регрессий (параболе, гиперболе, степенной, показательной)

    67. 32. Коэффициент эластичности для нелинейных функций

    68. 33. Показатели тесноты связи для нелинейных функций, линейных по параметрам

    69. 34. Показатели тесноты связи для нелинейных по параметрам функций регрессии

    70. 35. Прогнозирование по гиперболической регрессии

    71. 36. Прогнозирование по нелинейным по параметрам функциям регрессии (степенной, показательной)

    72. 37. Модели регрессии с фиктивными переменными

    73. 38. Критерии выбора наилучшего уравнения регрессии

    74. 39. Элементы временного ряда

    75. 40. Методы выявления тенденции во временном ряду

    76. 41. Автокорреляционная функция

    77. 42. Методы выбора формы уравнения тренда

    78. 43. Методики нахождения параметров линейного, параболического и показательного трендов и интерпретация их параметров

    79. 45. Способы выявления колеблемости во временном ряду.

    80. 46. Показатели колеблемости в ряду динамики

    81. 47. Анализ случайных остатков в модели тренда

    82. 48. Виды закономерных колебаний во временном ряду, методы их выявления

    83. 49. Аддитивная модель временного ряда

    84. Если временной ряд представляется в виде суммы соответствующих компонент, то полученная модель носит название аддитивной. В общем виде она имеет вид: Y = T+S+E.

    85. Эта модель предполагает, что каждый уровень временного ряда может быть представлен как сумма трендовой (T), сезонной (S) и случайной (E) компонент.

    86. Выбор модели осуществляется на основе анализа структурных сезонных колебаний. Если амплитуда колебаний приблизительно постоянна, выбирают аддитивную модель,  в которой значения сезонной компоненты предполагаются постоянными для различных циклов.

    87. Построение модели сводится к расчету значений T, S и E для каждого уровня ряда.

    88. Процесс построение модели включает в себя следующие шаги:

  1. Выравнивание исходного ряда методом скользящей средней.

  2. Расчет значений компоненты S.

  3. Установление сезонной компоненты из исходных уровней ряда и получение выравненных данных (T+E).

  4. Аналитическое выравнивание уровней (T+E) и расчет значений T с использованием полученного уравнения тренда.

  5. Расчет полученных по модели значений (T+S).

  6. Расчет абсолютных и/или относительных ошибок.

Соседние файлы в предмете [НЕСОРТИРОВАННОЕ]