Добавил:
Upload Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:
лекции эконометрика.docx
Скачиваний:
144
Добавлен:
10.05.2015
Размер:
823.09 Кб
Скачать

3.2.4. Анализ статистической значимости коэффициентов линейной регрессии

Величины yi, соответствующие данным xi, при некоторых теоретических значениях 0 и 1, являются случайными. Следовательно, случайными являются и рассчитанные по ним значения коэффициентов b0 и b1. Их математические ожидания при выполнении предпосылок об отклонениях i равны, соответственно, 0 и 1. При этом оценки тем надежнее, чем меньше их разброс вокруг 0 и 1, то есть дисперсия. По определению дисперсии  Надежность получаемых оценок а и b зависит, очевидно, от дисперсии случайных отклонений i, но поскольку по данным выборки эти отклонения (и, соответственно, их дисперсия) оценены быть не могут, они заменяются при анализе надежности оценок коэффициентов регрессии на отклонения переменной у от оцененной линии регрессии .

Можно доказать (доказательство опускаем), что

;

где  – мера разброса

зависимой переменной вокруг линии регрессии (необъясненная дисперсия). Sb0 и Sb1 - стандартные отклонения случайных величин b0 и b1. Полученный результат можно проинтерпретировать следующим образом.

Коэффициент b1 есть мера наклона линии регрессии. Очевидно, чем больше разброс значений у вокруг линии регрессии, тем больше (в среднем) ошибка в определении наклона линии регрессии. Если такого разброса нет совсем (еi = 0 и, следовательно, 2=0), то прямая определяется однозначно и ошибки в расчете коэффициентов b0 и b1 отсутствуют (а отсюда и значение S1, "замещающее" 2, равно нулю).

В знаменателе величины D(b1) стоит сумма квадратов отклонений х, от среднего значения . Эта сумма велика в том случае, если регрессия оценена на достаточно широком диапазоне значений переменной х, и в этом случае, при данном уровне разброса S2, очевидно, ошибка в оценке величины наклона прямой будет меньше, чем при малом диапазоне изменения переменной х. Если х1, и х2, лежат рядом, то даже небольшое изменение одного из уiсущественно меняет наклон прямой (если х1 и х2 далеки друг от друга - ситуация обратная).

Кроме того, чем больше (при прочих равных) число наблюдений n, тем больше  и, тем самым, меньше стандартная ошибка оценки. Дисперсия свободного члена уравнения регрессии равна

.

 - она пропорциональна D(b) и, тем самым, соответствует уже сделанным пояснениям о влиянии разброса yi вокруг регрессионной прямой и разброса хi на стандартную ошибку. Чем сильнее меняется наклон прямой, тем больше разброс значений свободного члена. Кроме того, дисперсия и стандартная ошибка свободного члена тем больше, чем больше средняя величина х2i. При больших по модулю значениях х даже небольшое изменение наклона регрессионной прямой может вызвать большое изменение оценки свободного члена, поскольку в этом случае в среднем велико расстояние от точек наблюдений до оси у.

3.3. Нелинейная регрессия

Зависимость многих экономических показателей не линейна. Метод наименьших квадратов не предназначен для оценки параметров нелинейных регрессий, кроме полиномиальной. Однако целый класс нелинейных зависимостей можно привести к зависимостям линейным преобразованием независимой и/или зависимой переменной. Такое преобразование называется линеаризацией.

Задача построения нелинейной модели регрессии состоит в следующем

Задана нелинейная спецификация модели

y = f(x,a,b,),

где y - зависимая, объясняемая переменная; x - независимая, объясняющая переменная; a, b - параметры модели, для которых должны быть получены оценки;  - аддитивный или мультипликативный случайный фактор.

Требуется

1.          Преобразовать исходные данные х  х*, у   у* так, чтобы спецификация модифицированной регрессии была линейной:

y* = a* + b*x*

2.          Методом наименьших квадратов получить оценки параметров a*,  b*.

3.          По оценкам a*,  b* вычислить искомые оценки параметров a, b исходной регрессии.

Способы преобразования данных и вычисления параметров a, b по оценкам a*,  b* приведены в следующей таблице.

Исходная спецификация

Преобра-зование  х  х*

Преобра-зование  у  у*

Вычисление  b по b*

Вычисление  a по a*