- •2. Суть корреляционного и регрессионного анализа. Основные задачи решаемые методами анализа
- •3. Поле корреляции
- •4. Линейная регрессия и корреляция, смысл и оценка параметров. Сопряженные регрессионные прямые
- •5. Метод наименьших квадратов (мнк). Обобщенный мнк
- •6. Свойства оценок мнк. Проверка качества уравнения регрессии.
- •7. Проверка значимости коэффициента корреляции и коэффициента детерминации
- •8. Оценка существенности параметров линейной регрессии и корреляции.
- •9. Интервалы прогноза по линейному уравнению регрессии. Проверка значимости оценок параметров регрессии
- •10 Влияние неучтенных факторов на коэффициент корреляции
- •11. Распределение коэффициентов регрессии и корреляции
- •12. Множественная регрессия.
- •13. Линейная модель множественной регрессии. Проверка линейности модели
- •14. Спецификация модели. Коэффициент множественной детерминации. Коэффициент частной детерминации. Коэффициент частной детерминации между объясняющими переменными
- •15. Отбор факторов при построении множественной регрессии
- •16. Мультиколлениарность
- •17. Выбор формы уравнения регрессии
- •18. Оценка параметров уравнения множественной регрессии.
- •19. Обобщенный метод наименьших квадратов
- •20. Частные уравнения регрессии
- •21. Множественная корреляция.
- •22. Частная корреляция.
- •23. Оценка надежности результатов множественной регрессии и корреляции.
- •24. Нелинейные модели регрессии. Множественная нелинейная регрессия
- •25. Логарифмические модели
- •26. Полулогарифмические модели
- •33. Метод максимального правдоподобия
- •34. Метод линеаризации
- •35. Коэффициент детерминации. Коэффициент конкордации
- •36. Функция правдоподобия в математической статистике - это совместное распределение выборки из параметрического распределения как функция параметра.
- •37. Метод Бокса-Кокса
- •38. Коэффициент ранговой корреляции Спирмена.
- •39. Коэффициенты эластичности
- •40. Фиктивные переменные
- •41. Проверка значимости для коэффициента корреляции
- •42. Проверка значимости для коэффициента детерминации.
- •43. Проверка линейной регрессии
- •44. Коэффициент детерминации при простой линейной регрессии.
- •45. Коэффициент множественной детерминации
- •46. Коэффициент частной детерминации
- •47. Коэффициент детерминации между объясняющими переменными
- •48. Стандартные ошибки оценок
4. Линейная регрессия и корреляция, смысл и оценка параметров. Сопряженные регрессионные прямые
Сопряженные регрессионные прямые
До сих пор обсуждалась регрессия у на х:
(1.1)
т. е у рассматривалась как зависимая переменная, а х — как объясняющая. На практике часто встречаются экономические явления, между которыми существует взаимодействие, т. е. переменная у зависит от переменной х и, наоборот, переменная х зависит от у. В таких случаях говорят о логически обратимых регрессиях. При переходе от одной постановки задачи к другой нельзя просто из уравнения (1.1) выразить х через . Это связано с тем, что эмпирические точки лежат не на прямой, а подвержены. Фиксированному значению х может соответствовать несколько значений у, а данному значению у — несколько значений переменной х. Чем больше разброс точек на диаграмме рассеяния, тем больше будут отличаться друг от друга регрессионные прямые, соответствующие различному направлению зависимости. Уравнения регрессии не выводимы друг из друга. Так как объектом изучения являются стохастические связи между переменными, при исследовании зависимостей между двумя переменными теоретически всегда существуют две различные регрессионные прямые, которые называются сопряженными.
В предположении линейной зависимости в качестве функции регрессии примем уравнение прямой
По сравнению с регрессией у на х переменные в (1.2) поменяли свои места. Зависимой переменной, или переменной, подлежащей объяснению, в данном случае является , а независимой, или объясняющей, переменной — у. Коэффициенты и — параметры регрессии*.
Параметр снова представляет собой аддитивную постоянную, соответствующую точке пересечения прямой регрессии (1.2) с осью абсцисс. Параметр называется коэффициентом регрессии х на у. Этот параметр показывает, на сколько единиц в среднем изменится значение переменной я, если значение переменной у изменится на одну единицу. Расчетные значения регрессии интерпретируются так же, как в случае регрессии у на х.
Из-за разброса эмпирических точек вокруг прямой регрессии снова можно рассматривать отклонения наблюдаемых значений переменной х от расчетных значений регрессии , которые мы обозначим через i:
xi—i = i (1.3)
Значения i являются реализациями случайной возмущающей переменной v. Эти значения — результат влияний на х не учтенных в функции регрессии (1,2) переменных-факторов, включая случайные флуктуации. Возмущающая переменная v в статистическом смысле интерпретируется как ошибка спецификации регрессии (1,2) Переменную х можно тогда выразить как
х=+ (1.4)
Из сказанного выше следует, что интерпретация регрессионной прямой, параметров регрессии, расчетных значений функции регрессии х на у аналогична смысловому истолкованию тех же понятий при рассмотрении регрессии у на х. Должно быть принято во внимание только обратное направление зависимости, а также то, что отклонения I опытных точек от линии регрессии измеряют по горизонтальной оси (рис. 1.1). Прямая регрессии х па у строится из условия минимизации суммы квадратов отклонений, измеренных по горизонтали:
После нахождения частных производных по неизвестным параметрам и приравнивая их нулю получаем так же, систему нормальных уравнений, решение которых дает нам искомые параметры:
Рисунок 1.1- сопряженные регрессионные прямые.
В случаи регрессии x на y принимает вид:
Пример
Рассмотрение изучении зависимости между объемом производства и показателем использования основных фондов на 52 промышленных предприятиях одной отрасли хозяйства. Исходные данные приведены в табл. 1. Вначале построим уравнение регрессии, отражающее зависимость объема производства (у) от основных фондов (х). Для этого определим величины b0 и :
Оцениваемая регрессия у на х будет иметь такой вид:
Прямая регрессии пересекает ось ординат в точке b0=183,06, тангенс угла ее наклона к оси абсцисс составляет b1=2,095 (см. рис. 1). Коэффициент регрессии показывает, что объем производства в среднем увеличивается на 2095 марок, если стоимость основных фондов повышается на 100 000 марок. Итак, коэффициент регрессии отражает влияние изменения основных фондов на уровень объема производства.
Для планирующих органов иногда представляет интерес вопрос, какой величины должны достигнуть основные фонды предприятия при определенном объеме производства? Ответ на этот вопрос можно получить, определив регрессию х на у в виде функции (1.2). По формулам (1.7) и (1.8) определяем значения и :
Оцениваемое соотношение можно записать в виде
Коэффициент показывает, что стоимость основных фондов в среднем возрастет на 43 500 марок, если показатель объема производства увеличится на 1000 марок. Мы ограничимся построением уравнений регрессий.
На рис. 1 представлены обе прямые регрессии. Они образуют «ножницы». Из графика видно, что при стохастической зависимости соотношение b1=1 : не имеет места. Лишь в случае чисто функциональной связи обе прямые регрессии сливаются в одну и тогда выполняется указанное соотношение между b1 и . По величине раствора ножниц можно судить приблизительно о степени зависимости обеих переменных. Чем более раскрыты ножницы, тем слабее связь.
Если обе прямые регрессии пересекаются под прямым углом, то эмпирические данные не позволяют подтвердить гипотезу о существовании зависимости между переменными. В этом случае отдельные точки случайно разбросаны по всей диаграмме рассеяния, и отсутствует всякая тенденция к ориентации точек в определенном направлении (рис. 1.2).
Рисунок 1.2- сопряженные регрессионные прямые в случае отсутствия связи между прямыми.
Если отсутствует регрессия у на х, то не существует также регрессии x на у и наоборот. При b1 = 0 обязательно = 0 и обратно. Если прямая регрессии у на x проходит параллельно оси абсцисс, то это неизбежно влечет за собой вытягивание прямой регрессии х на у вдоль оси ординат. Эта взаимная обусловленность становится очевидной при рассмотрении следующих формул:
и
Необходимой предпосылкой применения регрессионного анализа является выполнение условий: >0 и >0. Следовательно, оба угловых коэффициента регрессии равны нулю, если ковариация Sху = Sух, которая в обоих формулах содержится в числителе, равна нулю.
Как видно из рис. 1.1 и 1.2, обе_сопряженные прямые регрессии пересекаются в точке с координатами (, ). Так бывает всегда, и это можно показать с помощью формул:
и
При х = имеем = , а при у = получаем также = . Так как = и = — значения регрессии, принадлежащие обеим прямым, обе прямые должны пересекаться в точке (, ).
Не всегда требуется находить обе сопряженные прямые регрессии. Чаще всего представляет практический интерес зависимость только в одном направлении. А иногда постановка задачи оказывается содержательной только при рассмотрении односторонней зависимости. По этой причине мы не продолжили пример из раздела 2.4, так как, на наш взгляд, в этом примере регрессия х относительно у экономически бессмысленна.
Мы хотели бы подчеркнуть еще одну существенную особенность, вытекающую из наличия двух разных регрессионных прямых, описывающих связь между исследуемыми переменными при различном толковании их роли. Если существует взаимодействие между переменными у и л;, то переменная х также зависит от возмущающей переменной и. Но тем самым нарушается важная предпосылка применения метода наименьших квадратов. Если же, несмотря на это, мы применим метод наименьших квадратов для оценки по опытным данным неизвестных параметров уравнений регрессии у на x и х на у, то допустим ошибку.