Добавил:
Upload Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:
2012-ОТВЕТЫ-ГЭК.docx
Скачиваний:
27
Добавлен:
21.08.2019
Размер:
3.92 Mб
Скачать

XIV. Эконометрика

141. Модель множественной линейной регрессии

На любой экономический показатель практически всегда оказывает влияние не один, а несколько факторов. Например, спрос на некоторое благо определяется не только ценой данного блага, но и ценами на замещающие и дополняющие блага, доходом потребителей и многими другими факторами. В этом случае рассматривается множественная регрессия

Уравнение множественной регрессии может быть представлено в виде

где Х=(Х1, Х2, …Хм) – вектор независимых (объясняющих) переменных, β – вектор параметров (подлежащих определению), ε – случайная ошибка (отклонение), У – зависимая (объясняемая)переменная. Предполагается, что для данной генеральной совокупности именно функция f связывает исследуемую переменную У с вектором независимых переменных Х.

Рассмотрим самую употребляемую и наиболее простую из моделей множественной регрессии- модель множественной линейной регрессии.

Теоретическое линейное уравнение регрессии имеет вид:

Здесь неизвестных параметров, называется j-м теоретическим коэффициентом регрессии (частичным коэффициентом регрессии). Он характеризует чувствительность величины У к изменению Хj.Другими словами, он отражает влияние на условное математическое ожидание зависимой переменной У объясняющей переменной Хj при условии, что все другие объясняющие переменные модели остаются постоянными. β0 – свободный член, определяющий значение У, в случае, когда все объясняющие переменные Хj равны нулю.

После выбора линейной функции в качестве модели зависимости необходимо оценить параметры регрессии.

Пусть имеется n наблюдений вектора объясняющих переменных и зависимой переменной У

Для того, чтобы однозначно можно было бы решить задачу отыскания параметров ( т.е. найти некоторый наилучший вектор β) должно выполняться неравенство n>=m+1. Если это неравенство не будет выполняться, то существует бесконечно много различных векторов параметров, при которых линейная формула связи между Х и У будет абсолютно точно соответствовать имеющимся наблюдениям. При этом, если n=m+1, то оценки коэффициентов вектора β рассчитываются единственным образом – путем решения системы m+1 линейного уравнения:

Например, для однозначного определения оценок параметров определяют такую плоскость в трехмерном пространстве, которая пройдет именно через имеющиеся три точки. С другой стороны, добавление в выборку к имеющимся трем наблюдениям еще одного приведет к тому, что четвертая точка практически наверняка будет лежать вне построенной плоскости (и, возможно, достаточно далеко). Это потребует определенной переоценки параметров. Таким образом, вполне логичен следующий вывод:

Если число наблюдений больше минимально необходимого, т.е. n>m+1, то уже нельзя подобрать линейную форму, в точности удовлетворяющую всем наблюдениям, и возникает необходимость оптимизации, т.е. оценивания параметров при которых формула дает наилучшее приближение для имеющихся наблюдений.

В данном случае число ν=n-m-1 называется числом степеней свободы.

МНК – метод наим квадратов. Суть в минимизации квадратов отклонений наблюдаемых значений зависимой переменной У от ее значения , получаемых по уравнению регнессии. Предпосылки МНК

1. Мат ожидание случ отклонения e равно нулю для всех наблюдений

2.гомоскедастичность (постоянство дисперсий отклонений)

3. отсутствие автокорреляции

4. случайное отклонение должно быть независимо от объясняющих переменных

5модель явл линейной отн параметров

6. отсутствие мультиколлинеарности

7. ошибки е имеют нормальное распределение