Добавил:
Upload Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:

Курс лекций по статистике

.pdf
Скачиваний:
46
Добавлен:
03.06.2015
Размер:
2.98 Mб
Скачать

1.Метод сопоставления двух параллельных рядов;

2.Метод аналитических группировок;

3.Графический метод (корреляционного поля);

4.Табличный метод (корреляционной таблицы);

5.Корреляционно-регрессионый анализ.

1. Метод сопоставления двух параллельных рядов

Сущность метода сопоставления двух параллельных рядов заключается в сопоставлении значении факторного и результативного признаков. Для этого значения факторных признаков располагают в возрастающем или убывающем порядке. Параллельно записывают значения результативных признаков. Путем сопоставления расположенных таким образом рядов значений выявляют существование связи и ее направление.

Коэффициент Фехнера (коэффициент корреляции знаков) основан на степени согласованности направлений отклонений индивидуальных значении факторного и результативного признаков от соответствующих средних величин. Для расчета этого показателя исчисляют средние значения факторного и результативного признаков (по арифметической простой), а затем проставляют знаки отклонений для значений взаимосвязанных пар признаков: если фактическое значение признака больше средней величины, то ставится знак «+», если меньше - то знак «-»).

Коэффициент Фехнера определяется по формуле:

Кф С Н

СН ,

где С – количество совпадений знаков; Н – количество несовпадений знаков.

Коэффициент Фехнера может принимать любые значения в пределах от –1 до +1. Если Кф=1, то это значит, что знаки всех отклонений совпадают. Если знаки всех отклонений разные, то Кф = -1, это дает возможность предположить наличие обратной связи. Этот показатель позволяет уловить направление связи, но не учитывать точно ее величину.

2. Метод аналитических группировок

Чтобы выявить зависимость с помощью метода аналитических группировок, нужно произвести группировку единиц совокупности по факторному признаку и для каждой группы вычислить среднее значение результативного признака. Сопоставляя затем изменения результативного признака по мере изменения факторного, можно выявить направление, характер и тесноту связи между ними с помощью эмпирического корреляционного отношения.

3. Графический метод

Связь между признаками можно увидеть, при помощи графического метода. Для этого, на оси абсцисс откладывают значения факторного признака (x), на оси ординат – значения результативного признака (y). Нанеся на графике точки, соответствующие значениям x и y, можно получить корреляционное поле, благодаря которому по характеру расположения точек можно судить о направлении и силе связи. Если точки беспорядочно разбросаны по

всему полю, это говорит об отсутствии зависимости между двумя признаками. Если они концентрируются вокруг оси, идущей от нижнего левого угла в верхний правый, то имеется прямая зависимость между варьирующими признаками. Если точки концентрируются вокруг оси, идущей от верхнего левого угла в нижний правый, то существует обратная зависимость.

4. Табличный метод

Построение корреляционной таблицы начинают с группировки значений факторного и результативного признаков. Факторный признак x, располагают в строках, а результативный признак y – в столбцах таблицы. Числа, расположенные на пересечении строк и столбцов таблицы, означают частоту повторения данного сочетания значения x и y. Корреляционная таблица дает возможность выдвинуть предположение о наличии или отсутствии связи, а также выяснить ее направление. Если частоты расположены на диагонали из левого верхнего угла в правый нижний угол, то можно предположить наличие прямой корреляционной зависимости между признаками. Если же частоты расположены по диагонали справа налево, то предполагают наличие обратной связи между признаками.

5. Корреляционно-регрессионный анализ

Рассмотренные выше методы являются качественными методами установления связи. Метод корреляционного и регрессионного анализа дает количественную оценку, показывает направление и силу связи.

Корреляционно-регрессионый анализ предполагает установление ана-

литической формы связи (регрессионный анализ) и количественное измерение тесноты, направления связи (корреляционный анализ).

По количеству включаемых факторов модели могут быть однофакторными - парная регрессия и многофакторными (два и более факторов) – множественная регрессия.

Корреляционный метод имеет своей задачей количественное определение тесноты связи между двумя признаками (при парной связи) и между результативным и множеством факторных признаков (при многофакторной связи).

Чаще всего для характеристики регрессии используют следующие типы функций.

Типы функций, используемых для характеристики регрессии, и методика их определения

Функция

Методика расчета

Линейная связь

Парная регрессия:

 

yˆx a0 a1x,

 

Множественная регрессия:

 

yˆ1,2,3,....n a0 a1x1 a2 x2 .... an xn

 

 

Параболическая

Парная регрессия:

связь

yˆx a0 a1x a2 x2

 

Множественная регрессия:

 

yˆ

a

a x

2 a

2

x 2

.... a

x 2

 

1,2,3,....n

 

 

0

 

 

 

 

 

1 1

 

 

 

 

 

2

 

 

 

 

n n

Гиперболическая

Парная регрессия:

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

связь

 

 

 

 

yˆ

 

 

 

a

 

a

 

1

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

x

 

 

 

 

 

 

0

 

 

 

1 x

 

 

 

 

 

 

Множественная регрессия:

 

 

 

 

 

 

 

 

 

 

 

 

 

yˆ

 

a

 

 

a1

 

a2

 

 

 

a3

...

an

 

 

 

0

 

 

 

 

 

 

 

1,2,3,...n

 

 

 

 

 

 

 

 

x1

 

 

 

x2

 

 

 

 

 

x3

 

xn

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

Показательная

Парная регрессия:

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

функция

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

x

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

yˆx a0a1

 

,

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

Множественная регрессия:

 

 

 

 

 

 

 

 

 

 

 

 

 

 

yˆ

 

 

 

 

 

ea0 a1x1 a2 x2 .... an xn

 

 

 

 

 

1,2,3,....n

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

Степенная функция

Парная регрессия:

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

yˆ

x

a X a1 ,

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

0

 

 

 

 

 

 

 

 

 

 

 

 

 

Множественная регрессия:

 

 

 

 

 

 

 

 

 

 

 

 

 

yˆ

 

 

a xa1

 

xa2

 

xa3

.... xan

 

 

 

1,2,3,....n

 

 

 

 

0

 

 

1

 

 

2

 

 

 

3

 

n

 

 

Оценка параметров уровней регрессии (а0, а1, а2,… ,аn) осуществляется методом наименьших квадратов. Метод заключается в минимизации суммы квадратов отклонений эмпирических (фактических) значений результативного признака от теоретических, полученных по выбранному уравнению регрессии.

Каждый коэффициент регрессии показывает, на сколько в среднем изменится величина результативного признака в случае изменения факторного на единицу при фиксированном положении остальных факторов.

9.3. Однофакторный линейный корреляционно-регрессионный анализ

При равномерном развитии явления основная тенденция выражается линейной функцией.

Уравнение однофакторной (парной) линейной регрессии имеет вид:

yˆ a0 a1 x ,

где – теоретические значения результативного признака, полученные по уравнению регрессии;

а0 , а1 – параметры (коэффициенты) уравнения регрессии.

Коэффициент парной линейной регрессии а1 имеет смысл показателя силы связи между вариацией факторного признака x и вариацией результативного признака y. Он показывает среднее значение изменения результативного признака y при изменении факторного признака x на одну единицу его измерения, т.е. вариацию y, приходящуюся на единицу вариации x. Знак а1 указывает направление этого изменения.

Параметры уравнения а0 и а1 находят методом наименьших квадратов.

Для этого решается система нормальных уравнений:

 

0

 

1

 

 

 

 

 

 

na

a

x

 

 

y

 

 

0

1

 

 

 

 

 

 

 

a

 

 

x a

 

x2

 

 

xy

 

 

 

 

 

 

 

 

 

 

 

Параметры уравнения парной линейной регрессии:

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

xy

 

x y

 

 

 

 

 

 

 

 

a

;

a

 

y a x .

 

 

 

1

 

 

 

 

 

 

 

 

 

 

 

 

0

1

 

 

 

x2

x2

 

 

 

 

 

 

 

 

 

 

 

 

 

Определив значения а0, а1 и подставив их в уравнение связи yˆ a0 a1 x , находим значения yˆ , зависящие только от заданного значения x.

Для практического использования модели регрессии очень важна их адекватность, т.е. соответствие фактическим статистическим данным.

Значимость коэффициентов регрессии определяется с помощью t-критерия Стьюдента.

Для параметра а0:

 

 

 

 

 

 

 

 

 

 

 

ta

 

 

a0

 

 

 

n 2

 

.

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

0

 

 

 

 

 

 

 

 

 

ост

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

Для параметра а1:

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

t

a

 

 

a

 

 

 

 

 

n 2

 

x

,

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

1

 

 

 

 

ост

 

 

 

 

 

 

 

 

 

 

 

 

1

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

где n – объем выборки;

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

n – 2 – число степеней свободы;

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

ост

 

 

( y yˆ)2

 

 

– среднее квадратическое отклонение результативного

 

 

n

 

 

 

 

 

 

 

 

 

 

признака y от выровненных значений y ;

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

ˆ

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

x

 

x2

 

x

2

– среднее квадратическое отклонение факторного при-

 

 

 

 

 

 

 

 

 

 

 

n

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

n

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

знака x от общей средней x .

Вычисленные значения tрасч сравниваются с критическими tтабл, которые определяются по таблице Стьюдента с учетом принятого уровня значимости α и числом степеней свободы вариации ν.

Уровень значимости применительно к проверке статистических гипотез

– это вероятность, с которой может быть опровергнута гипотеза о том или ином законе распределения. Например, доверительной вероятности 0,95 соответствует 5%-ный уровень значимости, т.е. α=0,05.

Число степеней свободы вариации представляет собой число свободно (неограниченно) варьирующих элементов совокупности ν=n-k-1 (k – число факторных признаков в уравнении).

Параметр модели принимается значимым, если tрасч> tтабл.

Для интерпретации параметра а1 используют коэффициент эластичности. Он показывает средние изменения результативного признака при изменении факторного признака на 1% и вычисляется по формуле:

Э а1 x . y

Проверка адекватности регрессионной модели дополняется корреляционным анализом. Для этого определяют тесноту корреляционной связи между переменными x и y.

В случае наличия линейной и нелинейной зависимости между двумя признаками для измерения тесноты связи применяют корреляционное отношение. Различают эмпирическое и теоретическое корреляционное отношение.

Эмпирическое корреляционное отношение ηэ:

э

 

2

.

2

 

 

 

где δ2 - межгрупповая дисперсия, характеризующая вариацию результативно-

го признака, обусловленную группировочным признаком; σ2 – общая дисперсия результативного признака.

Теоретическое корреляционное отношение η используется для изме-

рения тесноты связи при линейной и криволинейной зависимостях между результативным и факторным признаком. При криволинейных связях теоретическое корреляционное отношение называют индексом корреляции R. Определяется по формуле:

 

 

 

 

 

 

 

 

 

 

 

 

1

( y yˆ)2

, или

( y

 

 

)2

 

 

y

 

 

 

 

( yˆ

 

 

 

 

 

 

 

 

 

 

 

 

y)2

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

( y

y)2 .

 

 

 

 

Показатель изменяется в пределах от 0 до 1. Интерпретация значений коэффициента такова:

0,1 - 0,3 связь слабая;

0,3 - 0,5 связь умеренная;

0,5 - 0,7 заметная;

0,7 - 0,9 тесная;

0,9 - 1,0 связь весьма тесная.

Если он равен нулю, то связи между признаками x и y нет. Чем он ближе

к 1, тем связь между признаками теснее.

Подкоренное выражение корреляционного отношения представляет собой коэффициент детерминации. Он показывает долю вариации результативного признака под влиянием вариации признака-фактора.

В случае наличия между двумя признаками линейной зависимости для изучения связи между ними используется линейный коэффициент корреляции. Он определяется по формуле:

r xy x y ,

x y

или

 

 

 

xy

x y

 

 

 

 

 

 

r

 

 

n

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

x 2

 

 

 

 

y 2

.

 

 

 

 

 

 

 

x 2

 

 

y 2

 

 

 

 

 

 

 

 

 

 

 

 

n

 

 

 

n

 

 

 

 

 

 

 

 

 

 

 

 

Между коэффициентом корреляции и коэффициентом регрессии существует зависимость, выражаемая формулой:

r a1 x ,

y

где x – среднеквадратическое отклонение соответствующего статистически

существенного факторного признака; а1 – параметр (коэффициент) уравнения регрессии.

Линейный коэффициент корреляции изменяется в пределах от -1 до +1 и выражает характер связи:

r = ±1– связь функциональная;

r = 0 связь отсутствует;

0<r<1 – связь прямая (значение коэффициента регрессии а1 положительное);

-1<r<0 – связь обратная (значение а1 – отрицательное).

Чем ближе значение коэффициента корреляции по абсолютной величине к единице, тем теснее связь между признаками.

Квадрат линейного коэффициента корреляции называется линейным коэффициентом детерминации r2. Его числовое значение заключено в пределах от 0 до 1.

Сравнение значений η и r используется для оценки формы связи. Эти значения совпадают только при наличии прямолинейной связи. Если разность η2 и r2 не превышает 0,1, то гипотезу о прямолинейной форме связи можно считать подтвержденной.

Для оценки значимости коэффициента корреляции используют t-

критерий Стьюдента. При линейной однофакторной связи его можно рассчитать по формуле:

tрасч r

n 2

 

,

1 r 2

 

 

 

где n-2 – число степеней свободы.

Вычисленные значения сравниваются с tтабл, которые определяются по таблице Стьюдента. Если tрасч> tтабл, то это свидетельствует о значимости коэффициента корреляции и существенности связи между двумя признаками.

После проверки адекватности, установления точности и надежности построенной модели (уравнения регрессии) ее необходимо проанализировать.

9.4. Многофакторный линейный корреляционно-регрессионный анализ

Задачей такого анализа является построение уравнения множественной регрессии и нахождение его параметров а0, а1, ..., аn. Параметры уравнения находят по способу наименьших квадратов. Затем с помощью корреляционного анализа осуществляют проверку адекватности полученной модели.

Уравнение множественной линейной двухфакторной регрессии:

yˆ X1X2 a0 a1x1 a2 x2 .

где X1X 2 – расчетные значения результативного признака, полученные по

уравнению регрессии;

x1 , x2 – независимые переменные (факторные признаки);

а0 , а1 , а2 – параметры (коэффициенты) уравнения регрессии. Уравнение множественной регрессии с n-факторами:

yˆ X1X2 ...Xn a0 a1x1 a2 x2 .... an xn .

Для измерения тесноты связи между двумя из рассматриваемых переменных (без учета их взаимодействия с другими переменными) применяются парные коэффициенты корреляции. Методика расчета и их интерпретация аналогичны методике расчета линейного коэффициента корреляции в случае однофакторной связи.

Если связь между признаками криволинейная, парный коэффициент корреляции дает заниженную оценку. Тогда рассчитывается корреляционное отношение, которое является в некотором смысле универсальным, поскольку применяется как при линейной, так и при нелинейной формах зависимостей.

При линейной форме зависимости между двумя признаками значение теоретического корреляционного отношения совпадает со значением линейного коэффициента корреляции r = R .

Парные коэффициенты корреляции можно рассчитать по формулам:

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

r

x1 y x1 y

;

 

 

 

 

 

 

 

 

 

 

 

yx

 

 

 

 

 

X

 

y

 

 

 

 

 

 

 

 

 

1

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

1

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

r

x2 y x2 y

;

 

 

 

 

 

 

 

 

yx2

 

 

 

 

 

X

 

y

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

2

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

r

 

 

 

x1 x2 x1 x2

.

 

 

 

x x

 

 

 

 

 

 

X

 

 

X

 

 

 

 

 

 

 

1

 

2

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

1

 

 

 

 

 

2

 

 

 

 

 

 

Однако в реальных условиях все переменные, как правило, взаимосвязаны. Теснота этой связи определяется частными коэффициентами корреляции, которые характеризуют степень влияния одного из факторов при условии, что остальные независимые переменные закреплены на постоянном уровне. В зависимости от количества переменных, влияние которых исключается, частные коэффициенты могут быть различного порядка: при исключении влияния одной переменной получаем частный коэффициент корреля-

ции первого порядка; при исключении двух переменных – второго порядка и т.д.

Частный коэффициент корреляции первого порядка между признаками x1 и y при исключении влияния признака x2 вычисляют по формуле:

ryx ( x )

 

 

ryx

ryx

rx x

2

 

 

 

.

 

 

1

 

 

2

1

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

1

2

 

(1

r 2 yx

 

)(1 r

2 x x

 

)

 

 

 

 

 

2

2

 

 

 

 

 

 

 

 

 

 

1

 

 

 

Зависимость y от x2 при исключении влияния x1 :

ryx ( x )

 

 

ryx

ryx

rx x

2

 

 

 

.

 

 

2

 

1

1

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

2

1

 

(1

r 2 yx

)(1 r 2 x x

 

)

 

 

 

 

 

2

 

 

 

 

 

 

 

1

 

 

1

 

 

 

Взаимосвязь факторных признаков при устранении влияния результативного признака:

rx x ( y)

 

rx x

 

ryx

ryx

 

.

1

2

 

1

2

 

 

 

 

 

 

 

 

 

1

2

 

 

 

 

 

 

 

 

 

 

 

 

(1 r 2 yx

)(1 r 2 yx )

 

 

 

 

 

 

 

 

1

 

 

2

 

 

Показателем тесноты связи, устанавливаемой между результативным и двумя факторными признаками, является совокупный коэффициент мно-

жественной корреляции:

Ryx x

 

 

r 2 yx

r 2 yx

 

2r r r

 

,

1

 

2

 

yx1

yx2

x1x2

 

 

 

 

 

 

 

 

 

 

1

2

 

 

1 r 2 x x

2

 

 

 

 

 

 

 

 

 

 

1

 

 

 

 

где r – парные коэффициенты корреляции между признаками. Множественный коэффициент корреляции измеряет одновременное вли-

яние факторных признаков на результативный. Его значение находится в пределах от 0 до 1. Чем ближе значение коэффициента к единице, тем теснее связь между признаками.

Совокупный коэффициент множественной детерминации R2 пока-

зывает, какая доля вариации изучаемого результативного признака объясняется влиянием факторов, включенных в уравнение множественной регрессии. Представляет собой подкоренное выражение совокупного коэффициента множественной корреляции.

Изменяется в пределах от 0 до 100 и характеризует, на сколько процентов изменение результативного признака зависит от выбранных в модель факторных признаков. Остальные проценты (до 100) показывают влияние других, не учтенных в модели признаков.

Проверку значимости уравнения множественной регрессии проводят на основе вычисления F-критерия Фишера:

F

2 y

 

n m

,

 

2

m 1

 

 

 

 

ост

 

 

где m – число параметров в уравнении регрессии.

Полученное значение критерия Fрасч сравнивают с критическим (таблич-

ным) для принятого уровня значимости

0,05 и чисел степеней свободы

1 m 1 и 2 n m . Если Fрасч> Fтабл,

то данное уравнение регрессии стати-

стически значимо, т.е. доля вариации, обусловленная регрессией, превышает случайную ошибку. Принято считать, что уравнение регрессии пригодно для практического использования в том случае, если Fрасч> Fтабл не менее чем в 4 раза.

Для оценки значимости коэффициентов регрессии при линейной зави-

симости y от двух факторов x1 и x2 используют используют t-критерий Стьюдента при n-m-1 степенях свободы:

 

 

 

a

 

1 r 2 x x

 

 

 

n m 1

 

ta

 

1

x1

 

1

2

 

 

 

 

 

 

;

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

1 R2 yx x

 

1

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

y

 

 

 

 

1

2

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

a

 

1 r 2 x x

 

 

n m 1

ta

 

 

2

x2

 

1

 

2

 

 

 

 

 

 

 

 

.

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

2

 

 

 

 

 

1 R2 yx x

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

y

 

 

 

 

1

2

 

 

 

 

 

Существенность совокупного коэффициента корреляции определяют по формуле:

 

 

Ryx x

2

n m 1

 

tR yx1x2

1

 

 

 

.

1

R

2

 

 

 

 

yx1x2

Значения a1, a2, Ryx1x2 берутся по модулю. Вычисленные значения t сравниваются с tтабл, которые определяются по таблице Стьюдента. Если tрасч> tтабл, тогда a1, a2, Ryx1x2 признаются значимыми (существенными).

Если в уравнении все коэффициенты регрессии значимы, то данное уравнение признают окончательным и применяют в качестве модели изучаемого показателя для последующего анализа.

Однако на основе коэффициентов регрессии нельзя сказать, какой из факторных признаков оказывает наибольшее влияние на результативный признак, так как коэффициенты регрессии между собой не сопоставимы, поскольку они измерены разными единицами.

Различия в единицах измерения факторов устраняют с помощью част-

ных коэффициентов эластичности:

Эi аi xi ,

yi

где аi – коэффициент регрессии при i-м факторе; xi – среднее значение i-го фактора;

yi – среднее значение изучаемого показателя.

Частные коэффициенты эластичности показывают, на сколько процентов в среднем изменяется анализируемый показатель с изменением на 1% каждого фактора при фиксированном положении других факторов.

Для определения факторов, в развитии которых заложены наиболее крупные резервы улучшения изучаемого показателя, необходимо учесть различия в степени варьирования вошедших в уравнение факторов. Для этого используют бета-коэффициенты βi:

i аi X i , y

где X i – среднее квадратическое отклонение i-го фактора;

y – среднее квадратическое отклонение изучаемого показателя.

β-коэффициент показывает, на какую часто среднего квадратического отклонения изменяется результативный признак с изменением соответствующего факторного признака на величину его среднего квадратического отклонения.

Дельта коэффициенты ∆i показывают, какова доля вклада анализируемого фактора в суммарное влияние всех отобранных факторов.

r

i Ri 2i .

После проверки адекватности построенной модели, установления значимости факторов и существенности совокупного коэффициента корреляции ее необходимо проанализировать.

9.5. Измерение тесноты связей между качественными (атрибутивными) признаками

Методы взаимной сопряженности позволяют изучить связь между качественными признаками.

Методика расчета и содержание показателей взаимной сопряженности

Показатель

Методика расчета и содержание показателя

Коэффициент

Применяется для измерения тесноты связи между варьи-

взаимной

рованием двух атрибутивных признаков, когда это варь-

сопряженности

ирование образует несколько (три и более) групп и

Чупрова

определяется по формуле:

 

Kч

 

 

 

 

 

 

 

 

2

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

n

 

k1

1 k2

1

,

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

k1

 

k2

2

 

 

 

 

 

 

 

 

2

 

 

fij

 

1

 

 

 

 

fi f j

 

 

 

 

1

 

1

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

,

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

где fi , f j – частоты в i–й строке j–го столбца;

n

– число наблюдений;

 

 

 

 

 

k1

– число групп по строкам;

 

 

 

 

 

k2

– число групп по столбцам.

 

 

 

 

Коэффициент изменяется от 0 до 1. Чем он ближе к 1,

тем теснее связь между атрибутивными признаками.

Коэффициент

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

Kп

 

 

 

 

 

2

 

 

 

 

 

взаимной

 

 

 

 

 

 

 

 

 

 

 

 

 

 

2 n

 

 

 

 

 

сопряженности