Добавил:
Upload Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:

Эконометрика, лекции

.pdf
Скачиваний:
64
Добавлен:
01.06.2015
Размер:
1.34 Mб
Скачать
Ki , т.е.
М (еi ) 0, а

Generated by Foxit PDF Creator © Foxit Software

http://www.foxitsoftware.com For evaluation only.

Исключаются из рассмотрения С центральных наблюдений. (По рекомендациям специалистов, объём исключаемых данных С должен быть примерно равен четверти общего объёма выборки n, в частности, при n =20, С=4; при n =30, С = 8; при n =60, С=16).

3. Оцениваются отдельные регрессии для первой подвыборки (k первых наблюдений) и для последней подвыборки (k последних наблюдений).

k

4. Определяются остаточные суммы квадратов S1 ei2 для первой и второй S2.групп.

i 1

Если предположение о пропорциональности дисперсий отклонений значениям x верно, то

S2 S1 .

5. Выдвигается нулевая гипотеза H 0

: е2

е2

...

е2 , которая предполагает отсут-

 

1

2

 

п

 

 

 

ствие гетероскедастичности.

 

 

 

 

 

 

 

Для проверки этой гипотезы рассчитывается отношение

F

S2

 

, которое имеет рас-

 

 

 

 

 

набл

S1

 

 

 

 

 

 

 

 

 

пределение Фишера с k m 1;k m 1 степеней свободы (здесь m – число объясняющих переменных).

Если Fнабл Fкр ;k m 1;k m 1 , то гипотеза об отсутствии гетероскедастичности от-

клоняется при уровне значимости α.

Этот же тест может быть использован и при предположении об обратной пропорцио-

нальности между дисперсией и значениями объясняющей переменной e2

 

 

2

. В этом слу-

 

 

 

i

 

xi2

 

чае статистика Фишера принимает вид: F S1 .

S2

При установлении гетероскедастичности возникает необходимость преобразования модели с целью устранения данного недостатка. Вид преобразования зависит от того, известны или

нет дисперсии отклонений е2 .

i

Обобщенный метод наименьших квадратов (ОМНК)

При нарушении гомоскедастичности и наличии автокорреляции ошибок рекомендуется традиционный метод наименьших квадратов заменять обобщенным методом наименьших квадратов (ОМНК).

Обобщенный метод наименьших квадратов применяется к преобразованным данным и позволяет получать оценки, которые обладают не только свойством несмещенности, но и имеют меньшие выборочные дисперсии. Остановимся на использовании ОМНК для корректировки гетероскедастичности.

Рассмотрим ОМНК для корректировки гетероскедастичности.

Будем предполагать, что среднее значение остаточных величин равно нулю дисперсия пропорциональна величине

2 K 2 ,

ei i

где 2 – дисперсия ошибки при конкретном i -м значении фактора; 2 – постоянная диспер-

ei

сия ошибки при соблюдении предпосылки о гомоскедастичности остатков; Ki – коэффициент

пропорциональности, меняющийся с изменением величины фактора, что и обусловливает неоднородность дисперсии.

41

Generated by Foxit PDF Creator © Foxit Software http://www.foxitsoftware.com For evaluation only.

При этом предполагается, что 2 неизвестна, а в отношении величин Ki выдвигаются определенные гипотезы, характеризующие структуру гетероскедастичности.

В общем виде для уравнения yi a bxi еi модель примет вид:

yi a bxi Ki ei .

В ней остаточные величины гетероскедастичны. Предполагая в них отсутствие автокорреляции, можно перейти к уравнению с гомоскедастичными остатками, поделив все перемен-

ные, зафиксированные в ходе i -го наблюдения, на

Ki . Тогда дисперсия остатков будет вели-

2

 

2

.

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

чиной постоянной, т. е. ei

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

Иными словами, от регрессии y по x мы перейдем к регрессии на новых переменных:

 

 

и x

 

. Уравнение регрессии примет вид:

 

 

 

y

 

K

 

 

 

K

 

 

 

 

 

 

 

 

 

 

 

 

yi

 

 

 

a

 

 

b

 

xi

 

i

,

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

Ki

Ki

Ki

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

а исходные данные для данного уравнения будут иметь вид:

 

 

 

y1

 

 

 

x1

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

K1

K1

 

 

y2

,

 

 

x2

.

y

 

 

 

 

 

x

 

 

 

 

K2

K2

 

........

 

 

........

 

 

 

yn

 

 

 

xn

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

Kn

 

Kn

По отношению к обычной регрессии уравнение с новыми, преобразованными переменными представляет собой взвешенную регрессию, в которой переменные y и x взяты с весами

1K .

Оценка параметров нового уравнения с преобразованными переменными приводит к

взвешенному методу наименьших квадратов, для которого необходимо минимизировать сумму квадратов отклонений вида

n

1

 

S a, b

yi a bxi 2 .

 

i 1

Ki

Соответственно получим следующую систему нормальных уравнений:

1

a K

i

a Kxi

i

b xi Ki

x2

b i Ki

yi ,

Ki

xi yi .

K i

 

 

1

(xi

 

x

)( yi

y

)

 

Ki

b

 

 

 

,

 

 

1

(xi

x

)2

 

 

 

 

 

 

 

Ki

 

 

 

 

 

 

 

 

 

 

 

 

Т.е. коэффициент регрессии b при использовании обобщенного МНК с целью корректировки гетероскедастичности представляет собой взвешенную величину по отношению к обыч-

ному МНК с весом 1K .

42

Generated by Foxit PDF Creator © Foxit Software

http://www.foxitsoftware.com For evaluation only.

Если преобразованные переменные x и y взять в отклонениях от средних уровней, то

коэффициент регрессии b можно определить как

b K1 x y .K1 x2

При обычном применении метода наименьших квадратов к уравнению линейной регрессии для переменных в отклонениях от средних уровней коэффициент регрессии b определяется

по формуле:

b

x y .

 

x2

Аналогичный подход возможен не только для уравнения парной, но и для множественной регрессии.

Для применения ОМНК необходимо знать фактические значения дисперсий отклонений

2 . На практике такие значения известны крайне редко. Поэтому, чтобы применить ВНК, не-

ei

обходимо сделать реалистические предположения о значениях e2

. В эконометрических ис-

i

 

следованиях чаще всего предполагается, что дисперсии отклонений пропорциональны или зна-

чениям xi, или значениям x2

, т.е e2

хi 2

или e2

хi2 2 .

i

 

i

 

 

i

 

 

Если предположить,

что

дисперсии

 

пропорциональны

значениям фактора x, т.е.

22

ei хi , тогда уравнение парной регрессии yi a bxi еi преобразуется делением его

левой и правой частей на xi :

yi

 

 

a

 

b

xi

 

 

еi

 

 

 

 

 

 

 

 

 

 

 

 

xi

xi

xi

xi

 

 

 

 

 

 

 

 

 

 

Или

 

yi

a

 

1

 

b

 

v

.

 

x

 

 

 

 

 

 

 

 

xi

 

 

 

xi

 

 

i

i

 

 

 

 

 

 

 

 

 

 

 

 

Здесь для случайных отклонений vi

еi

/

 

 

 

выполняется условие гомоскедастичности.

 

 

xi

Следовательно, для регрессии применим обычный МНК. Следует отметить, что новая регрессия не имеет свободного члена, но зависит от двух факторов. Оценив для неё по МНК коэффициенты а и b, возвращаемся к исходному уравнению регрессии.

2

 

2

 

2

, то соответствующим преобразованием

Если предположить, что дисперсии ei

хi

 

будет деление уравнения парной регрессии yi

a bxi

еi на xi:

 

 

yi

 

 

 

a

b

еi

 

 

 

xi

 

 

xi

 

 

 

xi

 

 

 

или, если переобозначить остатки как vi

еi / xi :

 

 

 

 

yi

a

1

b vi .

 

 

xi

 

xi

 

 

 

 

 

 

 

Здесь для отклонений vi также выполняется условие гомоскедастичности.

В полученной регрессии по сравнению с исходным уравнением параметры поменялись ролями: свободный член а стал коэффициентом, а коэффициент b – свободным членом. Применяя обычный МНК в преобразованных переменных

yi*

yi

;

zi

 

1

,

 

 

 

xi

 

 

xi

43

Generated by Foxit PDF Creator © Foxit Software

http://www.foxitsoftware.com For evaluation only.

получим оценки параметров, после чего возвращаемся к исходному уравнению.

Пример. Рассматривая зависимость сбережений y от дохода x , по первоначальным

данным было получено уравнение регрессии

y 1,081 0,1178 x.

Применяя обобщенный МНК к данной модели в предположении, что ошибки пропорциональны доходу, было получено уравнение для преобразованных данных:

y 0,1026 0,8538 1 .

x

x

Коэффициент регрессии первого уравнения сравнивают со свободным членом второго

уравнения, т.е. 0,1178 и 0,1026 – оценки параметра b зависимости сбережений от дохода.

В случае множественной регрессии yˆ a b1 x1 b2 x2 ... bm xm е ,

 

 

 

 

Если предположить 2

х2 2 (т.е. дисперсия ошибок пропорциональна квадрату пер-

e

1i

i

 

 

 

вой объясняющей переменной), то в этом случае обобщенный МНК предполагает оценку параметров следующего трансформированного уравнения:

 

 

y

b

b

x2

... b

xm

.

 

 

x

 

 

 

 

1

2

x

m x

 

1

 

 

1

 

1

 

Следует иметь в виду, что новые преобразованные переменные получают новое экономи-

ческое содержание и их регрессия имеет иной смысл, чем регрессия по исходным данным.

Пример. Пусть

y – издержки производства,

x1 – объем продукции, x2 – основные про-

изводственные фонды,

x3 – численность работников, тогда уравнение

y a b1x1 b2 x2 b3x3 e

является моделью издержек производства с объемными факторами. Предполагая, что 2 про-

i

порциональна квадрату численности работников x3 , мы получим в качестве результативного признака затраты на одного работника yx3 , а в качестве факторов следующие показатели:

производительность труда x1 x3

и фондовооруженность труда x2 x3 . Соответственно транс-

формированная модель примет вид

 

y

b b

x1

b

x2

,

 

 

 

 

 

x

3

1 x

2 x

 

3

 

 

3

3

 

где параметры b1,

b2 ,

b3

численно не совпадают с аналогичными параметрами предыдущей

модели. Кроме этого, коэффициенты регрессии меняют экономическое содержание: из показателей силы связи, характеризующих среднее абсолютное изменение издержек производства с изменением абсолютной величины соответствующего фактора на единицу, они фиксируют при обобщенном МНК среднее изменение затрат на работника; с изменением производительности труда на единицу при неизменном уровне фовдовооруженности труда; и с изменением фондовооруженности труда на единицу при неизменном уровне производительности труда.

Если предположить, что в модели с первоначальными переменными дисперсия остатков

пропорциональна квадрату объема продукции, 2

2 x2

, можно перейти к уравнению рег-

рессии вида

 

 

 

 

 

i

1

 

 

 

 

 

 

 

 

 

 

y

b b

x2

b

x3

.

 

 

 

 

 

 

 

 

 

x

1

2 x

3 x

 

 

 

1

 

 

1

1

 

 

 

44

Generated by Foxit PDF Creator © Foxit Software http://www.foxitsoftware.com For evaluation only.

В нем новые переменные: yx1 – затраты на единицу (или на 1 руб. продукции), x2 x1

фондоемкость продукции, x3 x1 – трудоемкость продукции.

Взаключение следует отметить, что обнаружении гетероскедастичности и её корректировка являются весьма серьёзной и трудоёмкой проблемой. В случае применения обобщённого (взвешенного) МНК необходима определённая информация или обоснованные предположения

о величинах 2 .

ei

Тема 6. Множественная корреляция и линейная регрессия

Значения экономических переменных обычно определяется влиянием не одного, а нескольких факторов. Например, спрос на некоторое благо определяется не только ценой данного блага, но и ценами на замещающие и дополняющие блага, доходом потребителей и многими другими факторами. В этом случае вместо парной регрессии рассматривается множественная регрес-

сия y f x1, x2 , ..., xm , где y – зависимая переменная (результативный признак), xi – неза-

висимые, или объясняющие, переменные (признаки-факторы).

Множественная регрессия широко используется в решении проблем спроса, доходности акций, при изучении функции издержек производства, в макроэкономических расчетах и целом ряде других вопросов эконометрики. В настоящее время множественная регрессия – один из наиболее распространенных методов в эконометрике. Основная цель множественной регрессии

– построить модель с большим числом факторов, определив при этом влияние каждого из них в отдельности, а также совокупное их воздействие на моделируемый показатель.

6.1. Спецификация модели. Отбор факторов при построении уравнения множественной регрессии

Построение уравнения множественной регрессии начинается с решения вопроса о спецификации модели. Он включает в себя два круга вопросов: отбор факторов и выбор вида уравнения регрессии.

Включение в уравнение множественной регрессии того или иного набора факторов связано прежде всего с представлением исследователя о природе взаимосвязи моделируемого показателя с другими экономическими явлениями. Факторы, включаемые во множественную регрессию, должны отвечать следующим требованиям.

1.Они должны быть количественно измеримы. Если необходимо включить в модель качественный фактор, не имеющий количественного измерения, то ему нужно придать количественную определенность.

2.Факторы не должны быть интеркоррелированы (интеркорреляция – корреляция между объясняющими переменными) и тем более находиться в точной функциональной связи.

Включение в модель факторов с высокой интеркорреляцией, может привести к нежелательным последствиям – система нормальных уравнений может оказаться плохо обусловленной

иповлечь за собой неустойчивость и ненадежность оценок коэффициентов регрессии.

Если между факторами существует высокая корреляция, то нельзя определить их изолированное влияние на результативный показатель и параметры уравнения регрессии оказываются неинтерпретируемыми.

Включаемые во множественную регрессию факторы должны объяснить вариацию независимой переменной. Если строится модель с набором m факторов, то для нее рассчитывается

показатель детерминации R2 , который фиксирует долю объясненной вариации результативного признака за счет рассматриваемых в регрессии m факторов. Влияние других, не учтенных в

модели факторов, оценивается как 1 R2

с соответствующей остаточной дисперсией S2 .

При дополнительном включении в регрессию m 1 фактора коэффициент детерминации

должен возрастать, а остаточная дисперсия уменьшаться:

 

R2

R2

и

S2

S2 .

m 1

m

 

m 1

m

45

Generated by Foxit PDF Creator © Foxit Software

http://www.foxitsoftware.com For evaluation only.

Если же этого не происходит и данные показатели практически не отличаются друг от друга, то включаемый в анализ фактор xm 1 не улучшает модель и практически является лиш-

ним фактором.

Насыщение модели лишними факторами не только не снижает величину остаточной дисперсии и не увеличивает показатель детерминации, но и приводит к статистической незначимости параметров регрессии по критерию Стьюдента.

Таким образом, хотя теоретически регрессионная модель позволяет учесть любое число факторов, практически в этом нет необходимости. Отбор факторов производится на основе качественного теоретико-экономического анализа. Однако теоретический анализ часто не позволяет однозначно ответить на вопрос о количественной взаимосвязи рассматриваемых признаков и целесообразности включения фактора в модель. Поэтому отбор факторов обычно осуществляется в две стадии: на первой подбираются факторы исходя из сущности проблемы; на второй – на основе матрицы показателей корреляции определяют статистики для параметров регрессии.

Коэффициенты интеркорреляции позволяют исключать из модели дублирующие факторы. Считается, что две переменные явно коллинеарны, т.е. находятся между собой в линейной зависимости, если rxi x j 0,7 . Если факторы явно коллинеарны, то они дублируют друг друга и

один из них рекомендуется исключить из регрессии. Предпочтение при этом отдается не фактору, более тесно связанному с результатом, а тому фактору, который при достаточно тесной связи с результатом имеет наименьшую тесноту связи с другими факторами. В

этом требовании проявляется специфика множественной регрессии как метода исследования комплексного воздействия факторов в условиях их независимости друг от друга.

Пусть, например, при изучении зависимости y f x1, x2 , x3 матрица парных коэффици-

ентов корреляции оказалась следующей:

 

 

 

y

 

 

x1

 

x2

 

x3

 

y

 

 

1

 

 

0,8

 

0,7

 

0,6

 

x1

 

 

0,8

 

 

1

 

0,8

 

0,5

 

x2

 

 

0,7

 

 

0,8

 

1

 

0,2

 

x3

 

 

0,6

 

 

0,5

 

0,2

 

1

 

Очевидно,

что факторы x1

и

x2 дублируют друг друга. В анализ целесообразно включить

фактор x2 , а не x1,

хотя корреляция x2

с результатом

y слабее, чем корреляция фактора x1 с

y ryx2

0,7 ryx1

0,8 , но

 

зато

значительно

слабее

межфакторная корреляция

rx2x3 0,2 rx1x3 0,5. Поэтому в данном случае в уравнение множественной регрессии вклю-

чаются факторы x2 , x3 .

По величине парных коэффициентов корреляции обнаруживается лишь явная коллинеарность факторов. Наибольшие трудности в использовании аппарата множественной регрессии возникают при наличии мультиколлинеарности факторов, когда более чем два фактора связаны между собой линейной зависимостью, т.е. имеет место совокупное воздействие факторов друг на друга. Наличие мультиколлинеарности факторов может означать, что некоторые факторы будут всегда действовать в унисон. В результате вариация в исходных данных перестает быть полностью независимой и нельзя оценить воздействие каждого фактора в отдельности.

Включение в модель мультиколлинеарных факторов нежелательно в силу следующих последствий: 1. Затрудняется интерпретация параметров множественной регрессии как характеристик действия факторов в «чистом» виде, ибо факторы коррелированы; параметры линейной

регрессии теряют экономический смысл.

46

Generated by Foxit PDF Creator © Foxit Software

http://www.foxitsoftware.com For evaluation only.

2. Оценки параметров ненадежны, обнаруживают большие стандартные ошибки и меняются с изменением объема наблюдений (не только по величине, но и по знаку), что делает модель непригодной для анализа и прогнозирования.

Для оценки мультиколлинеарности факторов может использоваться определитель матрицы парных коэффициентов корреляции между факторами.

Если бы факторы не коррелировали между собой, то матрица парных коэффициентов корреляции между факторами была бы единичной матрицей, поскольку все недиагональные

элементы rx x

i j

были бы равны нулю. Так, для уравнения, включающего три объясняю-

i

j

 

 

 

щих переменных

 

b2 x2

b3 x3

y a b1x1

матрица коэффициентов корреляции между факторами имела бы определитель, равный единице:

 

rx x

rx x

2

rx x

 

 

1

0

0

 

 

 

 

 

Det R

1 1

1

1

3

 

 

 

 

1.

r

 

r

 

r

 

 

 

0

1

0

 

x x

x x

x x

 

 

 

 

 

 

2

1

2

2

2

 

3

 

 

 

 

 

 

rx x

rx x

rx x

 

 

0

0

1

 

 

3

1

3

2

3

 

3

 

 

 

 

 

Если же, наоборот, между факторами существует полная линейная зависимость и все коэффициенты корреляции равны единице, то определитель такой матрицы равен нулю:

 

rx x

rx x

 

rx x

 

 

1 1 1

 

Det R

1 1

1

2

1

3

 

 

0.

r

 

r

x

 

r

x

 

1 1 1

 

x x

x

2

x

 

 

 

 

2

1

2

 

2

 

3

 

 

 

 

rx x

rx x

 

rx x

 

 

1 1 1

 

 

3 1

3

2

3

3

 

 

 

Чем ближе к нулю определитель матрицы межфакторной корреляции, тем сильнее мультиколлинеарность факторов и ненадежнее результаты множественной регрессии. И, наоборот, чем ближе к единице определитель матрицы межфакторной корреляции, тем меньше мультиколлинеарность факторов.

Существует ряд подходов преодоления сильной межфакторной корреляции. Самый простой путь устранения мультиколлинеарности состоит в исключении из модели одного или нескольких факторов. Другой подход связан с преобразованием факторов, при котором уменьшается корреляция между ними.

Одним из путей учета внутренней корреляции факторов является переход к совмещенным уравнениям регрессии, т.е. к уравнениям, которые отражают не только влияние факторов,

но и их взаимодействие. Так, если y f x1, x2 , x3 , то возможно построение следующего совмещенного уравнения:

y a b1x1 b2 x2 b3 x3 b12 x1x2 b13x1x3 b23 x2 x3 .

Рассматриваемое уравнение включает взаимодействие первого порядка (взаимодействие двух факторов). Возможно включение в модель и взаимодействий более высокого порядка, если будет доказана их статистическая значимость по F -критерию Фишера, но, как правило, взаимодействия третьего и более высоких порядков оказываются статистически незначимыми.

Отбор факторов, включаемых в регрессию, является одним из важнейших этапов практического использования методов регрессии. Подходы к отбору факторов на основе показателей корреляции могут быть разные. Они приводят построение уравнения множественной регрессии соответственно к разным методикам. В зависимости от того, какая методика построения уравнения регрессии принята, меняется алгоритм ее решения на ЭВМ.

Наиболее широкое применение получили следующие методы построения уравнения множественной регрессии:

1.Метод исключения – отсев факторов из полного его набора.

2.Метод включения – дополнительное введение фактора.

3.Шаговый регрессионный анализ – исключение ранее введенного фактора.

47

i
Как известно из курса математического анализа, для того чтобы найти экстремум функции нескольких переменных, надо вычислить частные производные первого порядка по каждому из параметров и приравнять их к нулю.
Итак, имеем функцию m 1 аргумента:
min.
2
yi yxi
m 1-

Generated by Foxit PDF Creator © Foxit Software

http://www.foxitsoftware.com For evaluation only.

При отборе факторов также рекомендуется пользоваться следующим правилом: число включаемых факторов обычно в 6–7 раз меньше объема совокупности, по которой строится регрессия. Если это соотношение нарушено, то число степеней свободы остаточной дисперсии очень мало. Это приводит к тому, что параметры уравнения регрессии оказываются статистически незначимыми, а F -критерий меньше табличного значения.

6.2. Метод наименьших квадратов (МНК)

Возможны разные виды уравнений множественной регрессии: линейные и нелинейные. Ввиду четкой интерпретации параметров наиболее широко используется линейная функ-

ция. Задача оценки статистической взаимосвязи переменных формулируется аналогично случаю парной регрессии.

Теоретическое уравнение множественной линейной регрессии имеет вид: y 1 x1 2 x2 ... т xт ,

где - случайная ошибка, 0 , 1 ,..., m - вектор размерности m 1.

Для того, чтобы формально можно было решить задачу оценки параметров должно выполняться условие: объем выборки n должен быть не меньше количества параметров, т.е. n m 1.

Если же это условие не выполняется, то можно найти бесконечно много различных коэффициентов.

Если n m 1 (например, 3 наблюдения и 2 объясняющие переменные), то оценки рассчитываются единственным образом без МНК путём решения системы:

yi 1 xi1 2 xi2 ... т x,

i 1,m 1.

Если же n m 1, то необходима оптимизация, т.е. выбрать наилучшую формулу зави-

симости. В этом случае разность n m 1 называется числом степеней свободы. Для по-

лучения надежных оценок параметров уравнения объём выборки должен значительно превышать количество определяемых по нему параметров. Практически, как было сказано ранее, объём выборки должен превышать количество параметров при xj в уравнении в 6-7 раз.

Задача построения множественной линейной регрессии состоит в определении мерного вектора а (а,b1 ,...,bт ) , элементы которого есть оценки соответствующих элементов

вектора 0 , 1 ,..., m .

Уравнение с оценёнными параметрами имеет вид:

y а b1 x1 b2 x2 ... bт xт е ,

где е – оценка отклонения ε. Параметры при x называются коэффициентами «чистой» регрессии. Они характеризуют среднее изменение результата с изменением соответствующего фактора на единицу при неизмененном значении других факторов, закрепленных на среднем уровне.

Классический подход к оцениванию параметров линейной модели множественной регрессии основан на методе наименьших квадратов (МНК). МНК позволяет получить такие оценки параметров, при которых сумма квадратов отклонений фактических значений результатив-

ного признака от расчетных минимальна:

y y

n

n

m

Q(a,b1 ,...,bm ) ei2 (yi (a bj xij ))2 min

i 1

i 1

j 1

48

Generated by Foxit PDF Creator © Foxit Software

http://www.foxitsoftware.com For evaluation only.

Она является квадратичной относительно неизвестных величин. Она ограничена снизу, следовательно имеет минимум. Находим частные производные первого порядка, приравниваем их к нулю, и получаем систему (m 1) уравнения с (m 1) неизвестным. Обычно такая система имеет единственное решение. И называется системой нормальных уравнений:

an

b1

x1

b2

x2

... bm xm

y

 

b1

2

b2

x2 x1

... bm xm x1

yx1

a x1

x1

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

2

 

a xm

b1

x1 xm

b2

x2 xm

yxm

... bm xm

Решение может быть осуществлено методом Крамера:

 

 

 

 

a

a

,bj

 

bj

, j

 

, где

 

 

 

 

1, m

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

n

x1

x2

...

xm

 

 

 

 

 

 

 

 

 

 

 

 

 

 

x1

x12

x2 x1

...

xm x1

, а bj

- частные определители, которые получа-

 

x2

x1 x2

x22

...

xm x2

 

...

...

... ... ...

 

 

 

 

 

 

 

 

xm

x1 xm

x2 xm

...

xm2

 

 

 

 

 

 

ются из заменой соответствующего j – го столбца столбцом свободных членов. Для двухфакторной модели ( m 2 данная система будет иметь вид:

an b1 x1 b2 x2 y

 

2

b2 x2 x1

yx1

a x1

b1 x1

 

b1 x1 x

2

yx2

a x2

2 b2 x2

Матричный метод.

 

 

 

 

Представим данные наблюдений и параметры модели в матричной форме.

Y [ y1, y2 ,..., yn ]' n – мерный вектор – столбец наблюдений зависимой переменной;

A [a,b1 ,b2 ,...,bp ]' – (m+1) – мерный вектор – столбец параметров уравнения регрессии;

e [e1,e2 ,...,en ]' n – мерный вектор – столбец отклонений выборочных значений yi от зна-

чений yˆi , получаемых по уравнению регрессии.

Для удобства записи столбцы записаны как строки и поэтому снабжены штрихом для обозначения операции транспонирования.

Наконец, значения независимых переменных запишем в виде прямоугольной матрицы

размерности n m 1 :

1

x11

1

x21

X

 

 

 

xn1

1

x12

 

x1m

x

22

 

x

 

 

 

 

2m

 

 

xn2

 

 

 

 

xnm

Каждому столбцу этой матрицы отвечает набор из n значений одного из факторов, а первый столбец состоит из единиц, которые соответствуют значениям переменной при свободном члене.

В этих обозначениях эмпирическое уравнение регрессии выглядит так:

Y XA e .

Где A X ' X 1 X 'Y .

Здесь X ' X 1 – матрица, обратная к X ' X .

49

Generated by Foxit PDF Creator © Foxit Software

http://www.foxitsoftware.com For evaluation only.

На основе линейного уравнения множественной регрессии

y a b1x1 b2 x2 ... bm xm

могут быть найдены частные уравнения регрессии:

yx x

,x ,...,x

 

f x1

,

 

 

1

2

3

 

m

f x2

,

 

 

 

 

 

 

 

 

yx x ,x ,...,x

 

 

 

2

1

3

 

m

 

 

 

.............................

 

y

x

x ,x

,...,x

f x

,

 

 

m

 

 

m

1 2

 

m 1

 

 

т.е. уравнения регрессии, которые связывают результативный признак с соответствующим фак-

тором xi при закреплении остальных факторов на среднем уровне. В развернутом виде систему можно переписать в виде:

yx x ,x ,...,x

a b1x1

b2

x

2

b3

x3

...

bm

x

m ,

 

1 2

3

m

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

yx2 x1

,x3

,...,xm

a b1

x1

b2 x2

b3

x3

...

bm

x

m ,

........................................................................

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

y

xm x1,x2 ,...,xm 1

a b

x

b

x

b

x

..

. b x

m

.

 

1

 

1 2

 

2 3

 

3

 

m

 

При подстановке в эти уравнения средних значений соответствующих факторов они принимают вид парных уравнений линейной регрессии, т.е. имеем

yx x

,x ,...,x

A1

b1x1,

 

 

1 2

3

m

A2

b2 x2 ,

 

yx2 x1,x3,...,xm

где

 

 

 

 

 

 

 

 

................................

 

 

 

 

 

 

 

 

 

y

xm x1,x2

 

A

b x ,

 

,...,xm 1

m

m

m

A1 a b2

x

2 b3

x3

... bm

x

m ,

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

a b1x1 b3 x3

bm xm

,

 

 

A2

 

 

..............................................

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

A a b

x

b

x

b

x

...

b x

.

m

1 1 2 2

3 3

 

 

 

 

m 1

m 1

 

В отличие от парной регрессии частные уравнения регрессии характеризуют изолированное влияние фактора на результат, ибо другие факторы закреплены на неизменном уровне. Эффекты влияния других факторов присоединены в них к свободному члену уравнения множественной регрессии. Это позволяет на основе частных уравнений регрессии определять частные коэффициенты эластичности:

Э

b

 

 

 

 

xi

 

 

 

,

 

где bi

– коэффициент регрессии для фактора xi в уравне-

 

 

yx

i

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

yx x ,x

 

 

 

 

 

 

 

 

 

 

 

 

 

 

i

 

 

 

,...x

,x

,...,x

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

m

 

 

 

 

 

 

 

 

 

 

 

 

 

 

i

1 2

i 1

i 1

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

,...x

,x

 

,...,x

– частное уравнение регрессии.

нии множественной регрессии, yx x ,x

 

 

 

 

 

 

 

 

 

 

 

 

 

 

i

1

2

i 1

i 1

m

Наряду с частными коэффициентами эластичности могут быть найдены средние по сово-

купности показатели эластичности:

 

 

 

 

 

 

 

 

 

 

 

 

xi

,

которые показывают на сколько процентов в среднем изменится результат,

 

 

 

 

 

Эi bi

y

x

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

i

 

 

 

 

 

 

 

 

 

 

 

 

 

при изменении соответствующего фактора на 1%. Средние показатели эластичности можно сравнивать друг с другом и соответственно ранжировать факторы по силе их воздействия на результат.

6.3. Анализ качества эмпирического уравнения множественной линейной регрессии

Проверка статистического качества оцененного уравнения регрессии проводится, с одной стороны, по статистической значимости параметров уравнения, а с другой стороны, по общему качеству уравнения регрессии. Кроме этого, проверяется выполнимость предпосылок МНК.

50