Добавил:
Upload Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:
shpory_EMMM(1).doc
Скачиваний:
7
Добавлен:
19.12.2018
Размер:
1.15 Mб
Скачать

38. Использование метода наименьших квадратов для определения параметров уравнения регрессии. Записать систему нормальных уравнений для линейной парной регрессии.

Одним из методов нахождения коэффициентов регрессии а и в является метод наименьших квадратов (МНК).

Пусть из генеральной совокупности выбраны данные об экономических показателях У: ( у, у, …, у) и Х: ( х, х,…, х). Если в уравнение, где а, в, - коэффициенты регрессии, подставить наблюдаемое (выборочное значение хi, то получим расчетное значение зависимой переменной у:

(3)

Разность между фактическими и расчетными значениями зависимой переменной обозначим ei и назовем остатком, т.е.:

(4)

Суть МНК заключается в следующем: коэффициенты а и в должны быть такими, чтобы сумма квадратов остатков была минимальна

(5)

в (5) уi и xi – известные величины, а а и в – неизвестные.

Запишем необходимые условия экстремума функции S относительно а и в:

(6)

Система (6) является системой двух уравнений относительно двух неизвестных а и в. Она легко преобразовывается в систему (7):

(7)

Разделим оба уравнения системы на n:

(8)

40. Коэффициент детерминации (R2)— это доля дисперсии отклонений зависимой переменной от её среднего значения, объясняемая рассматриваемой моделью связи (объясняющими переменными). Модель связи обычно задается как явная функция от объясняющих переменных. В частном случае линейной связи R2 является квадратом коэффициента корреляции между зависимой переменной и объясняющими переменными.

Коэффициент позволяет проверить не упущен ли какой-либо фактор, оказывающий влияние на зависимую переменную (у).

R2 = (yi – ŷi)2/(yi ӯ)2 , где yi — наблюдаемое значение зависимой переменной, а ŷi — значение зависимой переменной предсказанное по уравнению регрессии? ӯ -среднее арифметическое зависимой переменной.

Функциональная связь возникает при значении равном 1, а отсутствие связи — 0. При значениях показателей тесноты связи меньше 0,7 величина коэффициента детерминации всегда будет ниже 50 %. Это означает, что на долю вариации факторных признаков приходится меньшая часть по сравнению с остальными неучтенными в модели факторами, влияющими на изменение результативного показателя. Построенные при таких условиях регрессионные модели имеют низкое практическое значение. (Если R2 больше табличного значения по критерию Фишера, то уравнение значимо).

39. Использование коэффициентов корреляции в линейной парной регрессии для определения показателя тесноты связи переменных х и у.

Уравнение регрессии всегда дополняется показателем тесноты связи между переменными. При использовании линейной регрессии в качестве такого показателя выступает линейный коэффициент корреляции:

, (19)

rxy – безразмерная величина, показывает степень линейной зависимости между переменными. Чем ближе rxy к ±1, тем сильнее линейная зависимость. Чем ближе rxy к 0, тем линейная зависимость слабее. Если rxy = ±1, то имеет место функциональная линейная зависимость. Если rxy = 0, то линейная зависимость отсутствует. Если rxy >0, то связь между переменными положительная, если rxy <0 – отрицательная.

41. В тех случаях, когда необходимо оценить влияние нескольких факторов на исследуемую величину (зависимую переменную у), строится уравнение множественной регрессии. В рамках такой модели можно определить влияние каждого из включенных в модель факторов на результативный показатель у, а также совокупное влияние всех включенных в модель факторов.

Если связь является линейной, то уравнение линейной множественной регрессии запишется в виде: y = a + b1x1 + b2x2 +…+ bnxn.

Основные показатели уравнения множ. регрессии, как и парной, определяются методом наименьших квадратов. Но при расчете осн. стат. характеристик по другому определяется число степеней свободы: n-m-1, где m - кол-во факторов, n - кол-во наблюдений.

44,Мультиколлинеарность – высокая взаимная коррелированность (линейная зависимость) объясняющих переменных. Различают функциональную и стохастическую мультиколлинеарность.

При функциональной мультиколлинеарности определитель матрицы X’X равен 0. В этом случае невозможно решить матричное уравнение.

При стохастической мультиколлинеарности определитель матрицы X’X очень мал. Она имеет место, когда хотя бы между двумя объясняющими переменными существует тесная корреляционная связь).

Для определения наличия мультиколлинеарности существуют 2 способа:

  1. Рассчитывается матрица коэффициентов парной корреляции. Если между какими-либо независимыми переменными коэффициент парной корреляции больше 0,8, то считают, что мультиколлинеарность имеет место.

  2. Рассчитывают определитель матрицы X’X и его близость к 0 также свидетельствует о наличии мультиколлинеарности.

Методы устранения мультиколлинеарности:

  1. Из двух объясняющих переменных, имеющих высокий коэффициент корреляции, исключают из рассмотрения ту, которая имеет меньший коэффициент корреляции с зависимой переменной.

  2. Метод включения: независимая переменная включается в уравнение регрессии в том случае, если включение существенно увеличивает значение коэффициента множественной корреляции.

  3. Метод исключения: после построения уравнения регрессии проверяется значимость всех коэффициентов. Из уравнения исключаются независимые переменные с незначимым коэффициентом. Затем получают новое уравнение регрессии и опять проводят оценку значимости коэффициентов.

Соседние файлы в предмете [НЕСОРТИРОВАННОЕ]