econometrica1
.pdfВозможны случаи, когда расчет коэффициента эластичности не имеет смысла. Это происходит тогда, когда для рассматриваемых признаков бессмысленно определение изменения в процентах.
Уравнение нелинейной регрессии, так же, как и в случае линейной зависимости, дополняется показателем тесноты связи. В данном случае это индекс корреляции:
|
|
ρ = 1 − |
σ ост2 |
, |
(1.21) |
|||
|
|
σ 2 |
||||||
|
|
xy |
|
|
||||
|
|
|
|
|
||||
|
|
|
|
|
y |
|
|
|
где σ y2 = |
1 |
∑( y − |
|
)2 – общая дисперсия результативного признака y , |
||||
y |
||||||||
n |
||||||||
|
|
|
|
|
|
|
σ ост2 = 1n ∑( y − ɵy x )2 – остаточная дисперсия.
Величина данного показателя находится в пределах: 0 ≤ ρxy ≤ 1.
Чем ближе значение индекса корреляции к единице, тем теснее связь рассматриваемых признаков, тем более надежно уравнение регрессии.
Квадрат индекса корреляции носит название индекса детерминации
ихарактеризует долю дисперсии результативного признака y ,
объясняемую регрессией, в общей дисперсии результативного признака:
|
|
|
ρ 2 |
= 1 − |
|
σ ост2 |
= |
σ факт2 |
, |
(1.22) |
||
|
|
|
|
σ 2 |
|
σ 2 |
||||||
|
|
|
xy |
|
|
|
|
|
||||
|
|
|
|
|
|
|
|
|
|
|||
|
|
|
|
|
|
|
y |
|
|
y |
|
|
т.е. |
имеет |
тот |
же |
смысл, |
что |
и в линейной регрессии; |
||||||
σ факт2 |
= |
1 |
∑(ɵy x − |
|
)2 . |
|
|
|
|
|
||
y |
|
|
|
|
|
|||||||
n |
|
|
|
|
|
|||||||
|
|
|
|
|
|
|
|
|
|
|
|
Индекс детерминации ρxy2 можно сравнивать с коэффициентом
детерминации rxy2 для обоснования возможности применения линейной
функции. Чем больше кривизна линии регрессии, тем величина rxy2
меньше ρxy2 . А близость этих показателей указывает на то, что нет необходимости усложнять форму уравнения регрессии и можно использовать линейную функцию.
31
Индекс детерминации используется для проверки существенности в целом уравнения регрессии по F -критерию Фишера:
|
F = |
|
ρxy2 |
× |
n - m -1 |
|
|
|
|
|
|
, |
(1.23) |
||
|
|
- ρxy2 |
|
||||
|
1 |
|
m |
|
|||
где ρ 2 |
– индекс детерминации, n – |
число наблюдений, m – число |
|||||
xy |
|
|
|
|
|
|
|
параметров при переменной x . Фактическое значение F -критерия (1.23)
сравнивается с табличным при уровне значимости α и числе степеней свободы k2 = n − m −1 (для остаточной суммы квадратов) и k1 = m (для
факторной суммы квадратов).
Окачестве нелинейного уравнения регрессии можно также судить
ипо средней ошибке аппроксимации, которая, так же как и в линейном случае, вычисляется по формуле (1.8).
Рассмотрим пример из параграфа 1.1, предположив, что связь между признаками носит нелинейный характер, и найдем параметры
следующих |
|
|
нелинейных |
уравнений: |
y = a + b × ln x + ε , |
|||||||
y = a + b × |
|
|
+ ε и y = a × xb ×ε . |
|
|
|
|
|
|
|||
x |
|
|
|
|
|
|
||||||
Для нахождения параметров регрессии |
ɵy x = a + b × ln x делаем |
|||||||||||
замену z = ln x и составляем вспомогательную таблицу (ε = y - ɵy x ). |
|
|||||||||||
|
|
|
|
|
|
|
|
|
|
Таблица 1.5 |
||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
x |
|
|
z |
y |
z × y |
z2 |
y2 |
ɵyx |
ε |
ε 2 |
Ai |
1 |
2 |
|
3 |
4 |
5 |
6 |
7 |
8 |
9 |
10 |
11 |
|
1 |
1,2 |
|
0,182 |
0,9 |
0,164 |
0,033 |
0,81 |
0,499 |
0,401 |
0,1610 |
44,58 |
|
2 |
3,1 |
|
1,131 |
1,2 |
1,358 |
1,280 |
1,44 |
1,508 |
-0,308 |
0,0947 |
25,64 |
|
3 |
5,3 |
|
1,668 |
1,8 |
3,002 |
2,781 |
3,24 |
2,078 |
-0,278 |
0,0772 |
15,43 |
|
4 |
7,4 |
|
2,001 |
2,2 |
4,403 |
4,006 |
4,84 |
2,433 |
-0,233 |
0,0541 |
10,57 |
|
5 |
9,6 |
|
2,262 |
2,6 |
5,881 |
5,116 |
6,76 |
2,709 |
-0,109 |
0,0119 |
4,20 |
|
6 |
11,8 |
|
2,468 |
2,9 |
7,157 |
6,092 |
8,41 |
2,929 |
-0,029 |
0,0008 |
0,99 |
|
7 |
14,5 |
|
2,674 |
3,3 |
8,825 |
7,151 |
10,89 |
3,148 |
0,152 |
0,0232 |
4,62 |
|
8 |
18,7 |
|
2,929 |
3,8 |
11,128 |
8,576 |
14,44 |
3,418 |
0,382 |
0,1459 |
10,05 |
|
Итого |
71,6 |
|
15,315 |
18,7 |
41,918 |
35,035 |
50,83 |
18,720 |
-0,020 |
0,5688 |
116,08 |
|
Среднее |
8,95 |
|
1,914 |
2,34 |
5,240 |
4,379 |
6,35 |
– |
– |
0,0711 |
14,51 |
|
значение |
|
|||||||||||
σ |
– |
|
0,846 |
0,935 |
– |
– |
– |
– |
– |
– |
– |
|
σ 2 |
– |
|
0,716 |
0,874 |
– |
– |
– |
– |
– |
– |
– |
Найдем уравнение регрессии:
32
b = |
cov( z, y ) |
= |
5, 240 -1,914 × 2,34 |
= 1,063, |
σ 2 |
|
|||
|
0,716 |
|
||
|
z |
|
|
|
a = y - b × z = 2,34 -1,063 ×1,914 = 0,305.
Т.е. получаем следующее уравнение регрессии: ɵy x = 0,305 +1,063 × ln x .
Теперь заполняем столбцы 8-11 нашей таблицы.
Индекс корреляции находим по формуле (1.21):
|
|
|
σ ост2 |
|
|
|
|
|
ρxy |
= 1 - |
|
= |
1 - |
0,0711 |
= 0,958 , |
||
|
σ 2 |
|
||||||
|
|
|
|
0,874 |
|
|||
|
|
|
y |
|
|
|
|
|
а индекс детерминации ρxy2 |
= 0,918 , который показывает, что 91,8% |
вариации результативного признака объясняется вариацией признака-
фактора, а 8,2% приходится на долю прочих факторов.
Средняя ошибка аппроксимации: |
|
=14,51% , |
|
|||||||||
A |
что недопустимо |
|||||||||||
велико. |
|
|
|
|
|
|
|
|
|
|
||
F -критерий Фишера: |
|
|
|
|
|
|
|
|
||||
|
ρxy2 |
n - m -1 |
|
0,919 |
|
8 -1 -1 |
|
|||||
F = |
|
× |
|
|
= |
|
|
× |
|
= 68,07 , |
||
1 - ρxy2 |
m |
1 - 0,919 |
1 |
значительно превышает табличное Fтабл = 5,99 .
Изобразим на графике исходные данные и линию регрессии:
Рис. 1.6.
33
|
|
|
|
|
|
|
|
регрессии ɵy x |
= a + b × |
|
|
|
||||
Для нахождения |
параметров |
|
x делаем |
|||||||||||||
замену z = |
|
и составляем вспомогательную таблицу (ε = y - ɵy x ). |
||||||||||||||
x |
||||||||||||||||
|
|
|
|
|
|
|
|
|
|
|
|
|
Таблица 1.6 |
|||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
x |
|
z |
y |
|
z × y |
z2 |
|
y2 |
ɵyx |
|
ε |
|
ε 2 |
|
Ai |
1 |
2 |
3 |
4 |
|
5 |
6 |
|
7 |
8 |
|
9 |
10 |
|
11 |
||
1 |
1,2 |
1,10 |
0,9 |
|
0,99 |
1,2 |
|
0,81 |
0,734 |
|
0,166 |
0,0276 |
|
18,46 |
||
2 |
3,1 |
1,76 |
1,2 |
|
2,11 |
3,1 |
|
1,44 |
1,353 |
|
-0,153 |
0,0235 |
|
12,77 |
||
3 |
5,3 |
2,30 |
1,8 |
|
4,14 |
5,3 |
|
3,24 |
1,857 |
|
-0,057 |
0,0033 |
|
3,19 |
||
4 |
7,4 |
2,72 |
2,2 |
|
5,98 |
7,4 |
|
4,84 |
2,247 |
|
-0,047 |
0,0022 |
|
2,12 |
||
5 |
9,6 |
3,10 |
2,6 |
|
8,06 |
9,6 |
|
6,76 |
2,599 |
|
0,001 |
0,0000 |
|
0,05 |
||
6 |
11,8 |
3,44 |
2,9 |
|
9,96 |
11,8 |
|
8,41 |
2,912 |
|
-0,012 |
0,0001 |
|
0,42 |
||
7 |
14,5 |
3,81 |
3,3 |
|
12,57 |
14,5 |
|
10,89 |
3,259 |
|
0,041 |
0,0017 |
|
1,20 |
||
8 |
18,7 |
4,32 |
3,8 |
|
16,43 |
18,7 |
|
14,44 |
3,740 |
|
0,060 |
0,0036 |
|
1,58 |
||
Итого |
71,6 |
22,5 |
18,7 |
|
60,24 |
71,6 |
|
50,83 |
18,700 |
|
-0,001 |
0,0619 |
|
39,82 |
||
Среднее |
8,95 |
2,82 |
2,34 |
|
7,53 |
8,95 |
|
6,35 |
– |
|
– |
0,0077 |
|
4,98 |
||
значение |
|
|
|
|
||||||||||||
σ |
– |
1,00 |
0,935 |
|
– |
– |
|
– |
– |
|
– |
– |
– |
|
||
σ 2 |
– |
1,00 |
0,874 |
|
– |
– |
|
– |
– |
|
– |
– |
– |
|
Найдем уравнение регрессии:
|
b = |
cov( z, y ) |
|
= |
7,53 - 2,82 × 2,34 |
= 0,931, |
|
||||||||||||||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
||||||||
|
|
|
|
σ 2 |
|
|
|
|
|
|
1,00 |
|
|
|
|
||||||
|
|
|
|
|
z |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
a = |
|
- b × |
|
|
= 2,34 - 0,931× 2,82 = -0, 286 . |
|
||||||||||||||
|
y |
z |
|
||||||||||||||||||
Т.е. |
получаем |
|
|
|
|
|
|
следующее |
|
уравнение |
регрессии: |
||||||||||
ɵy x = -0, 286 + 0,931× |
|
|
|
|
|
|
|
|
|
|
|
|
|||||||||
|
|
|
x . |
|
|
Теперь заполняем столбцы |
8-11 нашей |
||||||||||||||
таблицы. |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|||||
|
Индекс корреляции находим по формуле (1.21): |
|
|||||||||||||||||||
|
|
|
|
|
|
|
|
|
|
|
|
||||||||||
|
|
|
σ ост2 |
|
|
|
|
|
|
|
|||||||||||
|
ρxy = 1 - |
|
|
= 1 - |
0,0077 |
= 0,996 , |
|
||||||||||||||
|
|
σ 2 |
|
|
|
||||||||||||||||
|
|
|
|
|
|
|
0,874 |
|
|
|
|
||||||||||
|
|
|
|
|
|
|
|
|
y |
|
|
|
|
|
|
|
|
|
|
а индекс детерминации ρ 2 = 0,991, который показывает, что 99,1%
вариации результативного признака объясняется вариацией признака-
фактора, а 0,9% приходится на долю прочих факторов.
Средняя ошибка аппроксимации: A = 0,0498 ×100% = 4,98%
показывает, что линия регрессии хорошо приближает исходные данные.
34
F -критерий Фишера: |
|
|
|
|
|
|
||||
|
ρxy2 |
n - m -1 |
|
0,991 |
|
8 -1 -1 |
|
|||
F = |
|
× |
|
|
= |
|
|
× |
|
= 660, 67 , |
1 - ρxy2 |
m |
1 - 0,991 |
1 |
значительно превышает табличное Fтабл = 5,99 .
Изобразим на графике исходные данные и линию регрессии:
Рис. 1.7
Для нахождения параметров регрессии y = a × xb ×ε необходимо
провести ее линеаризацию, как было показано выше:
Y = A + b × X + E ,
где Y = ln y, X = ln x, A = ln a, E = ln ε .
Составляем вспомогательную таблицу для преобразованных данных:
35
Таблица 1.7
|
|
X |
|
|
Y |
|
X ×Y |
|
|
X 2 |
|
Y 2 |
ɵyx |
|
ε |
ε 2 |
|
Ai |
||||
1 |
|
2 |
3 |
|
4 |
|
|
5 |
|
6 |
7 |
|
8 |
9 |
|
10 |
||||||
1 |
|
0,182 |
-0,105 |
|
-0,019 |
|
0,033 |
|
0,011 |
0,8149 |
|
0,0851 |
0,0072 |
|
9,46 |
|||||||
2 |
|
1,131 |
0,182 |
|
0,206 |
|
1,280 |
|
0,033 |
1,3747 |
|
-0,1747 |
0,0305 |
|
14,56 |
|||||||
3 |
|
1,668 |
0,588 |
|
0,980 |
|
2,781 |
|
0,345 |
1,8473 |
|
-0,0473 |
0,0022 |
|
2,63 |
|||||||
4 |
|
2,001 |
0,788 |
|
1,578 |
|
4,006 |
|
0,622 |
2,2203 |
|
-0,0203 |
0,0004 |
|
0,92 |
|||||||
5 |
|
2,262 |
0,956 |
|
2,161 |
|
5,116 |
|
0,913 |
2,5627 |
|
0,0373 |
0,0014 |
|
1,43 |
|||||||
6 |
|
2,468 |
1,065 |
|
2,628 |
|
6,092 |
|
1,134 |
2,8713 |
|
0,0287 |
0,0008 |
|
0,99 |
|||||||
7 |
|
2,674 |
1,194 |
|
3,193 |
|
7,151 |
|
1,425 |
3,2165 |
|
0,0835 |
0,0070 |
|
2,53 |
|||||||
8 |
|
2,929 |
1,335 |
|
3,910 |
|
8,576 |
|
1,782 |
3,7004 |
|
0,0996 |
0,0099 |
|
2,62 |
|||||||
Итого |
|
15,315 |
6,002 |
|
14,637 |
35,035 |
|
6,266 |
18,608 |
|
0,0919 |
0,0595 |
|
35,14 |
||||||||
Среднее |
|
1,914 |
0,750 |
|
1,830 |
|
4,379 |
|
0,783 |
– |
|
– |
0,0074 |
|
4,39 |
|||||||
значение |
|
|
|
|
|
|||||||||||||||||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
||
σ |
|
0,846 |
0,470 |
|
|
|
– |
|
|
– |
|
– |
– |
|
– |
– |
– |
|
||||
σ 2 |
|
0,716 |
0,221 |
|
|
|
– |
|
|
– |
|
– |
– |
|
– |
– |
– |
|
||||
|
Найдем уравнение регрессии: |
|
|
|
|
|
|
|
|
|||||||||||||
|
|
b = |
cov( X , Y ) |
|
= |
1,830 -1,914 × 0,750 |
= 0,551, |
|
|
|||||||||||||
|
|
|
|
|
|
|
|
|
|
|||||||||||||
|
|
|
|
|
|
σ 2 |
|
|
|
|
|
|
|
0,716 |
|
|
|
|
|
|
||
|
|
|
|
|
|
X |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|||||||||||||
|
|
A = Y |
- b × X = 0,750 - 0,551×1,914 = -0,305 . |
|
|
|
||||||||||||||||
Т.е. |
|
получаем |
|
|
следующее |
уравнение |
регрессии: |
|||||||||||||||
Y x = -0,305 + 0,551× X . После |
потенцирования |
находим искомое |
уравнение регрессии:
ɵy x = 0,737 × x0,551 .
Теперь заполняем столбцы 7-10 нашей таблицы.
Индекс корреляции находим по формуле (1.21):
|
|
|
σ ост2 |
|
|
|
|
ρxy |
= 1 - |
|
= 1 - |
0,0074 |
= 0,983 , |
||
|
σ 2 |
|
|||||
|
|
|
0, 221 |
|
|||
|
|
|
y |
|
|
|
|
а индекс детерминации ρ 2 = 0,967 , который показывает, что 96,7%
вариации результативного признака объясняется вариацией признака-
фактора, а 3,3% приходится на долю прочих факторов.
Средняя ошибка аппроксимации: A = 4,39% показывает, что линия регрессии хорошо приближает исходные данные.
36
F -критерий Фишера: |
|
|
|
|
|
|
||||
|
ρxy2 |
n - m -1 |
|
0,967 |
|
8 -1 -1 |
|
|||
F = |
|
× |
|
|
= |
|
|
× |
|
=175,82, |
1 - ρxy2 |
m |
1 - 0,967 |
1 |
значительно превышает табличное Fтабл = 5,99 .
Изобразим на графике исходные данные и линию регрессии:
Рис. 1.8.
Сравним построенные модели по индексу детерминации и средней ошибке аппроксимации:
|
|
|
|
|
|
Таблица 1.8 |
|||
|
|
|
|
|
|||||
|
|
|
Индекс детерминации, |
Средняя ошибка |
|||||
Модель |
R2 ( r2 , |
ρ 2 |
) |
|
|
|
|||
аппроксимации, A , % |
|||||||||
|
|
|
xy |
xy |
|
||||
|
|
|
|
|
|
|
|
|
|
Линейная модель, |
0,987 |
|
6,52 |
|
|
||||
ɵy x = a + b × x |
|
|
|
||||||
Полулогарифмическая |
|
|
|
|
|
|
|||
модель, |
0,918 |
|
14,51 |
|
|
||||
ɵy x = a + b × ln x |
|
|
|
||||||
|
|
|
|
|
|
||||
Модель с квадратным |
|
|
|
|
|
|
|||
корнем, |
0,991 |
|
4,98 |
|
|
||||
ɵy x = a + b × |
|
|
|
|
|
||||
x |
|
|
|
|
|
|
|
||
Степенная модель, |
0,967 |
|
4,39 |
|
|
||||
y = a × xb ×ε |
|
|
|
||||||
|
|
|
|
|
|
|
|
|
37
Наиболее хорошо исходные данные аппроксимирует модель с квадратным корнем. Но в данном случае, так как индексы детерминации линейной модели и модели с квадратным корнем отличаются всего на
0,004, то вполне можно обойтись более простой линейной функцией.
38
2. Множественная регрессия и корреляция
Парная регрессия может дать хороший результат при моделировании, если влиянием других факторов, воздействующих на объект исследования, можно пренебречь. Если же этим влиянием пренебречь нельзя, то в этом случае следует попытаться выявить влияние других факторов, введя их в модель, т.е. построить уравнение множественной регрессии
y = f ( x1 , x2 , ..., xm ) + ε ,
где y – зависимая переменная (результативный признак), xi –
независимые, или объясняющие, переменные (признаки-факторы).
Множественная регрессия широко используется в решении проблем спроса, доходности акций, при изучении функции издержек производства, в макроэкономических расчетах и целом ряде других вопросов эконометрики. В настоящее время множественная регрессия – один из наиболее распространенных методов в эконометрике. Основная цель множественной регрессии – построить модель с большим числом факторов, определив при этом влияние каждого из них в отдельности, а
также совокупное их воздействие на моделируемый показатель.
2.1. Спецификация модели. Отбор факторов при построении
уравнения множественной регрессии
Построение уравнения множественной регрессии начинается с решения вопроса о спецификации модели. Он включает в себя два круга вопросов: отбор факторов и выбор вида уравнения регрессии.
Включение в уравнение множественной регрессии того или иного набора факторов связано прежде всего с представлением исследователя о природе взаимосвязи моделируемого показателя с другими экономическими явлениями. Факторы, включаемые во множественную регрессию, должны отвечать следующим требованиям.
39
1.Они должны быть количественно измеримы. Если необходимо включить в модель качественный фактор, не имеющий количественного измерения, то ему нужно придать количественную определенность.
2.Факторы не должны быть интеркоррелированы и тем более находиться в точной функциональной связи.
Включение в модель факторов с высокой интеркорреляцией, может
привести к нежелательным последствиям – система нормальных
уравнений может оказаться плохо обусловленной и повлечь за собой неустойчивость и ненадежность оценок коэффициентов регрессии.
Если между факторами существует высокая корреляция, то нельзя определить их изолированное влияние на результативный показатель и
параметры уравнения регрессии оказываются неинтерпретируемыми.
Включаемые во множественную регрессию факторы должны объяснить вариацию независимой переменной. Если строится модель с набором m факторов, то для нее рассчитывается показатель
детерминации R2 , который фиксирует долю объясненной вариации
результативного признака за счет рассматриваемых в регрессии m
факторов. Влияние других, не учтенных в модели факторов, оценивается
с соответствующей остаточной дисперсией S 2 .
При дополнительном включении в регрессию m + 1 фактора
коэффициент детерминации должен возрастать, а остаточная дисперсия уменьшаться:
R2 |
³ R2 |
и |
S 2 |
£ S 2 . |
m+1 |
m |
|
m+1 |
m |
Если же этого не происходит и данные показатели практически не отличаются друг от друга, то включаемый в анализ фактор не улучшает модель и практически является лишним фактором.
Насыщение модели лишними факторами не только не снижает величину остаточной дисперсии и не увеличивает показатель
40