Добавил:
Upload Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:
м4.docx
Скачиваний:
57
Добавлен:
20.12.2018
Размер:
171.67 Кб
Скачать

32.Корреляционный и регрессивный анализ. Функциональная и корреляционная зависимость

Р.а. представляет собой вычисления на основе статистической информации с целью математической оценки усредненной связи между зависимой переменной и некоторой независимой переменной или переменными. Простая регрессия предполагает одну независимую переменную, множественная же регрессия предполагает две и более переменных. К.а. проводится для описания таких связей

Р.а. широко используется для прогнозирования продаж отдельных видов продукции, а также для прогнозирования доходов и др. фин. показателей. Требования по предоставлению необходимой информации могут отличаться, но месячные или квартальные данные на протяжении нескольких лет могут служить основой для выявления существенных зависимостей. С точки зрения математика, необходимо иметь как минимум на два результата наблюдений больше, нежели число имеющихся показателей независимых переменных. Р.а. обычно весьма эффективен при краткосрочных и среднесрочных аналитических исследованиях. Он считается весьма хорошим средством определения узловых точек при анализе взаимосвязей фин. показателей.

Р.а. описывает или оценивает величину какой-либо переменной (зависимой переменной на основе изменения одной или более др. переменных - независимых или каузальных). Если менеджер по продажам желает спрогнозировать объем продаж автомобилей на следующий год (зависимая переменная), исходя из располагаемого дохода, то Р.а. может быть использован при попытке предсказания или оценки величины зависимой переменной (продаж автомобилей).

По следующей формуле рассчитывается простая линейная регрессия:

y = a + bx,

где:y - зависимая переменная;

x - независимая переменная;

a - постоянная величина или точка пересечения постоянной линии регрессии переменной y, отражающая величину y при b = 0;

b - наклон линии регрессии (коэффициент пропорциональности изменений y при изменении x).

Для нахождения оптимального прохождения линии на графике регрессионного управления используется метод наименьших квадратов. Этот метод позволяет расположить линию регрессии между точками, отражающими величины отдельных наблюдений т. о., что возведенная в квадрат сумма разницы, взятая по вертикали между значением линии регрессии и значением отдельного наблюдения, минимальна.

Для того чтобы проиллюстрировать нахождение линии регрессии, возьмем следующие данные, характеризующие объем продаж и заработной платы продавцов.

Заработная плата

(в сотнях долларов) Продажи (в тыс.)

x y xy x2 y2

11 14 154 121 196

17 18 306 289 324

Данные по десяти дополнительным наблюдениям опускаются.

Итого: 174 225 3,414 2,792 4,359

Линия регрессии y = a + bx определяется следующими двумя стандартными уравнениями:

Sy = na + b(Sx),

Sxy = a(Sx) + b(Sx2),

где:n - число наблюдений (в данном случае 12);

x - заработная плата (измеритель та (измеритель объема);

y - продажи;

S - сумма по переменным.

Решение уравнения дает следующие результаты:

a = 10,5836,

b = 0,5632.

Линия регрессии описывается как:

y = 10,5836 + 0,5632(x).

Если заработная плата равна 10 дол., то прогнозные продажи составят 16,2156 дол.:

y = 10,5836 + 0,5631(10),

y = 16,2156.

Преимуществом анализа с помощью метода наименьших квадратов является то, что может быть проведен К.а., к-рый позволяет количественно измерить, насколько соответствует линия регрессии отдельным точкам, фиксирующим данные наблюдений. Набор различных статистических данных может быть использован для характеристики точности и надежности результатов Р.а., в особенности коэффициент корреляции (r) и его квадрат - коэффициент детерминации (r2).

Коэффициент корреляции рассчитывается для измерения степени взаимосвязи между двумя переменными, в данном случае между заработной платой и продажами. К.а. - это анализ наличия линейных связей между переменными. Если изменение переменных происходит в одном направлении, то имеет место прямая зависимость (положительная корреляция), как это показано на прилагаемом графике 1. Если изменение переменных происходит в противоположных направлениях, то имеет место обратная зависимость (отрицательная корреляция). Если зависимость незначительна или отсутствует, то представленные данные имеют широкое рассеивание и не взаимосвязаны.

Степень и направление корреляции измеряются от -1 до 1. Знак обозначает, является связь прямой или обратной. Коэффициент корреляции рассчитывается следующим образом:

Среднее квадратическое отклонение,

определяемое уравнением регрессии

Полное среднее квадратическое отклонение

по всей совокупности

Если данные по всем наблюдениям, отраженные на графике, выстраиваются в прямую линию, то все случаи отклонений считаются объяснимыми и коэффициент корреляции должен составить 1 или -1. При отсутствии корреляции ее коэффициент равен 0 (см. прилагаемые графики).

При определении значимости величины корреляции необходимо произвести расчет, характеризующий возможность сохранения этой величины корреляции при проведении случайной выборки из генеральной совокупности, в к-рой корреляция отсутствовала.

Коэффициент детерминации представляет ту долю дисперсии величины y, зависимость изменений к-рой выявлена регрессионным уравнением. Его величина колеблется от 0 до 1. Напр., если зависимость объема продаж от заработной платы продавцов характеризуется r2 = 0,61, то 61% общей дисперсии (разброса) объема продаж отслеживается регрессионным уравнением (или связано с изменением фонда оплаты труда), а 39% зависит от действия др. факторов (таких, как цены, доходность). Такой недостаточно высокий коэффициент детерминации говорит о том, что заработная плата продавцов не является достаточно надежным критерием оценки объема продаж.

Почти каждый статистический комплект программного обеспечения имеет стандартную программу определения линии регрессии. 8.1. Основные понятия корреляционного и регрессионного анализа

Исследуя природу, общество, экономику, необходимо считаться со взаимосвязью наблюдаемых процессов и явлений. При этом полнота описания так или иначе определяется количественными характеристиками причинно-следственных связей между ними. Оценка наиболее существенных из них, а также воздействия одних факторов на другие является одной из основных задач статистики.

Формы проявления взаимосвязей весьма разнообразны. В качестве двух самых общих их видов выделяют функциональную (полную) и корреляционную (неполную) связи. В первом случае величине факторного признака строго соответствует одно или несколько значений функции. Достаточно часто функциональная связь проявляется в физике, химии. В экономике примером может служить прямо пропорциональная зависимость между производительностью труда и увеличением производства продукции.

Корреляционная связь (которую также называют неполной, или статистической) проявляется в среднем, для массовых наблюдений, когда заданным значениям зависимой переменной соответствует некоторый ряд вероятных значений независимой переменной. Объяснение тому – сложность взаимосвязей между анализируемыми факторами, на взаимодействие которых влияют неучтенные случайные величины. Поэтому связь между признаками проявляется лишь в среднем, в массе случаев. При корреляционной связи каждому значению аргумента соответствуют случайно распределенные в некотором интервале значения функции.

Например, некоторое увеличение аргумента повлечет за собой лишь среднее увеличение или уменьшение (в зависимости от направленности) функции, тогда как конкретные значения у отдельных единиц наблюдения будут отличаться от среднего. Такие зависимости встречаются повсеместно. Например, в сельском хозяйстве это может быть связь между урожайностью и количеством внесенных удобрений. Очевидно, что последние участвуют в формировании урожая. Но для каждого конкретного поля, участка одно и то же количество внесенных удобрений вызовет разный прирост урожайности, так как во взаимодействии находится еще целый ряд факторов (погода, состояние почвы и др.), которые и формируют конечный результат. Однако в среднем такая связь наблюдается – увеличение массы внесенных удобрений ведет к росту урожайности.

По направлению связи бывают прямыми, когда зависимая переменная растет с увеличением факторного признака, и обратными, при которых рост последнего сопровождается уменьшением функции. Такие связи также можно назвать соответственно положительными и отрицательными.

Относительно своей аналитической формы связи бывают линейными и нелинейными. В первом случае между признаками в среднем проявляются линейные соотношения. Нелинейная взаимосвязь выражается нелинейной функцией, а переменные связаны между собой в среднем нелинейно.

Существует еще одна достаточно важная характеристика связей с точки зрения взаимодействующих факторов. Если характеризуется связь двух признаков, то ее принято называть парной. Если изучаются более чем две переменные – множественной.

Указанные выше классификационные признаки наиболее часто встречаются в статистическом анализе. Но кроме перечисленных различают также непосредственные, косвенные и ложные связи. Собственно, суть каждой из них очевидна из названия. В первом случае факторы взаимодействуют между собой непосредственно. Для косвенной связи характерно участие какой-то третьей переменной, которая опосредует связь между изучаемыми признаками. Ложная связь – это связь, установленная формально и, как правило, подтвержденная только количественными оценками. Она не имеет под собой качественной основы или же бессмысленна.

По силе различаются слабые и сильные связи. Эта формальная характеристика выражается конкретными величинами и интерпретируется в соответствии с общепринятыми критериями силы связи для конкретных показателей.

В наиболее общем виде задача статистики в области изучения взаимосвязей состоит в количественной оценке их наличия и направления, а также характеристике силы и формы влияния одних факторов на другие. Для ее решения применяются две группы методов, одна из которых включает в себя методы корреляционного анализа, а другая – регрессионный анализ. В то же время ряд исследователей объединяет эти методы в корреляционно-регрессионный анализ, что имеет под собой некоторые основания: наличие целого ряда общих вычислительных процедур, взаимодополнения при интерпретации результатов и др.

Поэтому в данном контексте можно говорить о корреляционном анализе в широком смысле – когда всесторонне характеризуется взаимосвязь. В то же время выделяют корреляционный анализ в узком смысле – когда исследуется сила связи – и регрессионный анализ, в ходе которого оцениваются ее форма и воздействие одних факторов на другие.

Задачи собственно корреляционного анализа сводятся к измерению тесноты связи между варьирующими признаками, определению неизвестных причинных связей и оценке факторов оказывающих наибольшее влияние на результативный признак.

Задачи регрессионного анализа лежат в сфере установления формы зависимости, определения функции регрессии, использования уравнения для оценки неизвестных значении зависимой переменной.

Решение названных задач опирается на соответствующие приемы, алгоритмы, показатели, применение которых дает основание говорить о статистическом изучении взаимосвязей.

Следует заметить, что традиционные методы корреляции и регрессии широко представлены в разного рода статистических пакетах программ для ЭВМ. Исследователю остается только правильно подготовить информацию, выбрать удовлетворяющий требованиям анализа пакет программ и быть готовым к интерпретации полученных результатов. Алгоритмов вычисления параметров связи существует множество, и в настоящее время вряд ли целесообразно проводить такой сложный вид анализа вручную. Вычислительные процедуры представляют самостоятельный интерес, но знание принципов изучения взаимосвязей, возможностей и ограничений тех или иных методов интерпретации результатов является обязательным условием исследования.

Методы оценки тесноты связи подразделяются на корреляционные (параметрические) и непараметрические. Параметрические методы основаны на использовании, как правило, оценок нормального распределения и применяются в случаях, когда изучаемая совокупность состоит из величин, которые подчиняются закону нормального распределения. На практике это положение чаще всего принимается априори. Собственно, эти методы – параметрические – и принято называть корреляционными.

Непараметрические методы не накладывают ограничений на закон распределения изучаемых величин. Их преимуществом является и простота вычислений.

32.

Соседние файлы в предмете [НЕСОРТИРОВАННОЕ]