Добавил:
Upload Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:
1 блок.docx
Скачиваний:
14
Добавлен:
12.09.2019
Размер:
451.98 Кб
Скачать

13)Классическая модель множественной линейной регрессий

Для произвольного случайного вектора

E=(z)= (E(z), E(z),…E(zn))’

и ковариационную матрицу

V (z) = E [(z-E(z))( z-E(z))'].

Как и для вектора, математическое ожидание матрицы - это матрица, элементами которой являются математические ожидания исходной матрицы. Поэтому ковариационная матрица

По диагонали ковариационной матрицы V(z) в (i,i) - и позиции записана дисперсия var(zi) = cov(zi ,zi), а в (i, j) -й позиции записана ковариация cov(zi zj).

Отметим следующее свойство ковариационно матрицы. Если с - постоянный вектор размерности п, А -детерминированная квадратная матрица порядка п, то V(z + c) = y(z), V(Az) = AV(z)A'.

Для случайного вектора z запись z ~ (µ,V) будет означать, что математическое ожидание z равно вектору µ, а V - его ковариационная матрица.

Через In обозначим единичную матрицу порядка п, т.е. квадратную матрицу, которой элементы главной диагонали равны 1, а остальные элементы равны 0.

Сформулируем предположения классической модели множественной линейной регрессии

1. Объясняющие переменные x1,x2,…,xk неслучайные, а ранг матрицы X равен k, kn, т.е. матрица X имеет полный ранг. Это значит, что элементы матрицы X детерминированные величины, а ее столбцы линейно независимы.

2. Вектор случайных членов ɛ ~ (0,σ2 In). Следовательно, предполагается, что каждая компонента ɛi имеет нулевое математическое ожидание, дисперсию, равную σ2, а ковариация разных ɛi и ɛj равна нулю.

2'. Если дополнительно предполагается, что компоненты вектора ɛ имеют нормальное распределение, то условие 2 заменяется на ɛ ~N(0, σ2 In).

Теорема (Гаусса-Маркова). Если для модели множественной линейной регрессии у = Хβ + ɛ выполнены условия 1-2, то оценка вектора коэффициентов по методу наименьших

является эффективной среди всех несмещенных линейных оценок β.

Это утверждение устанавливает обоснованность использования метода наименьших квадратов для оценки коэффициентов линейной регрессии.

Отметим следующие свойства метода наименьших квадратов. Обозначим

Матрицы M,N идемпотентные, т.е. симметричные и квадрат матрицы равен самой этой матрице. Причем N -матрица оператора проектирования на подпространство, натянутое на столбцы матрицы X , а М - матрица оператора проектирования на подпространство, ортогональное столбцам матрицы X . В частности, NX = X , MX = О. Непосредственно проверяется, что

= Ny, е = My , е’е = ɛ'Мɛ .

Следом tr(A) квадратной матрицы А называется сумма ее диагональных элементов. Пользуясь тем, что след произведения матриц не меняется при их циклической перестановке, получим

Е(е’е) = E(tr(e'e)) = E(tr(ɛ'Мɛ)) = tr(E(Mɛ’ɛ) = tr(M E(ɛɛ’)) = tr(2In) = σ2tr(M) = σ2tr(In-X(X'X)-1X’) =σ2[tr(In)-tr((X'X)-1XX)]= σ2[tr(In)- tr(Ik)] = σ2[n-k].

Значит, несмещенной оценкой σ2 дисперсии ошибок σ2 является величина

или иначе

14)Прогнозирование значений зависимой переменной для парной линейной регрессии.

Эконометрическая модель строится на основе имеющихся статистических данных. Важнейшая задача регрессионного анализа состоит в построении прогнозов зависимой переменной в зависимости для выбранных значений объясняющей переменной. Значение y0 зависимой переменной при значении х0 объясняющей переменной должно удовлетворять уравнению y0=α+βx0o – где εo соответствующая реализация случайного члена. Допустим для модели парной линейной регрессии построено оцененное уравнение у=а+bx. Коэффициенты a, b предполагаются значимыми. Возможен прогноз двух типов.

Математическое ожидание значения зависимой переменной при х=х0 равно Е ( уI х0)= α+βx0. Согласно теореме Гаусса- Маркова прогнозом т.е несмещенной оценкой этой величины служит ŷ0= α+βx0. Естественно возникает вопрос о точности этого прогноза. Возможны два подхода: первый- насколько прогнозное значение ŷ0 может отклониться от условного математического ожидания Е ( уI х0) и второй – насколько значение y0 зависимой переменной может отклониться от ее прогнозного значения ŷ0.

  1. Доверительный интервал для ожидаемого значения зависимой переменной. Основой для построения доверительного интервала является отношение t= [n-2] где оценка дисперсии прогнозного значения ŷ0 зависимой переменной определяется выражением ( + ) ,

Для выбранного уровня значимости δ определяется критическое значение =t δ/2,n-2 статистики Стьюдента с n-2 степенями свободы. Ответ на вопрос о точности прогноза дается в форме доверительного интервала ожидаемого значения зависимой переменной построенного с уровнем надежности 1- δ: где s стандартная ошибка случайного члена модели.

  1. Доверительный интервал для индивидуального значения зависимой переменной. В этом случае распределение Стьюдента имеет величина t= [n-2].

Построение доверительного интервала сводится к вычислению - оценки дисперсии var( ) = var( - ) отклонения значения y0=α+βx0o зависимой переменной от ее прогнозного значения. Она равна = (1+ +

Точность прогноза индивидуального значения зависимой переменной определяется для уровня значимости δ интервалом. [ , ]

Здесь также s2 оценка дисперсии случайного члена, а tc- критическое значение распределения Стьюдента с n-2 степенями свободы.

Соседние файлы в предмете [НЕСОРТИРОВАННОЕ]