- •Меры центральной тенденции
- •Меры разброса данных
- •Методы вторичной обработки результатов исследования
- •Статистический критерий различий
- •Статистическое изучение корреляционной зависимости
- •Понятие корреляционной зависимости
- •Методы выявления корелляционной зависимости
- •Показатели тесноты связи между двумя качественными переменными
- •Проверка коэф корелл на значимость
- •Коэф корелл рангов
- •Нахождение Уравнения регрессии
Статистическое изучение корреляционной зависимости
Понятие корреляционной зависимости
Проводя исследоваия в различных областях статистика неизбежно сталкивается с зависимостями как между количественными так и между качественными показателями
Ее задача выявить такие зависимости и дать им количественную характеристику
Сркди взаимосвязанных показателей одни могут рассматриватся как определенные факторы влияющие на изменение других (факторные)
А другие (результативные) являются следствием влияния факторных
Существует два вида связи между отдельными признаками: функциональная и стохастическая, частным случаем которой является корреляционная.
Связь между двумя переменными х и у явл функциональной если определенному значению переменной х строго соотв одно или неск-ко значений переменной у и с изменением х значение у меняется строго определенным образом
Такие связи строго детерминированы.
Существуют инного рода сязи где взаимнодействуют многие факторы комбинация которых приводит к вариации значений результативного признака при одинаковом значении факторного.
Между ними нет жестко детерминированной связи.
Там где взаимодействует множество факторов в том числе и случайных выявить зависимости рассматривая единичные случаи зависимости невозможно.
Такие зависимости можно обнаружить только при массовом наблюдении как статистические закономерности выявленная таким образом связь наз стохастическая
Корреляционная связь-понятие более узкое чем статистическая и является ее частным случаем именно коррляционная связь является предмет статистики
Коррлеляционная связь –связь проявляющаяся при большом числе наблюдений в виде определенных зависимостей между ср.значением результативного признака и признаками фактора.
При этом если рассматривается связь средней величины результативного признака с одним признаком фактором то коррлеяция наз парной
А если факторных признаков 2 и более корелл наз множественной
При изучении множественной коррлеяции вводится множество значений частной корреляции
Частная коррел-зависимость между результативным показателем и одним из факторных при условии что влияние остальных факторных признаков исключена
По харктеру изменений парная корелляция различается на прямую и обратную
при обратной значение факторного и результативного признаков меняются в разных направлениях
изучение корреляционных связей сводится к 3-м задачам
1 выявление наличия или отсутствия связей между изучаемыми признаками
2 измерение тесноты связи между 2-мя или более признаками с помощью специальных коэффециентов (корреляцинооый анализ)
3 определние уравнение регресси –математической модели в которой ср зн результативного признака рассматривается как функция одной или неск-ких переменных
Общи термин кореляционно-регрессионыый анализ подразумевает всестороннее решение всех вышеуказанных задач.
Методы выявления корелляционной зависимости
Корелляционная зависимость между двумя признаками как частный случай стохастической связи выражается в вариациях результативного признака
Выраженный изменением факторного признака в условиях взаиодействия его
Со множеством других факторов учитываемых в исследованиях
Предприятие |
Стоимость xi |
Объем выпуска |
xi-x |
yi-y |
|
1 |
12 |
28 |
- |
- |
|
2 |
16 |
40 |
- |
- |
|
3 |
25 |
38 |
- |
- |
|
4 |
38 |
65 |
|
|
|
5 |
43 |
|
|
|
|
6 |
55 |
|
|
|
|
7 |
60 |
|
|
|
|
8 |
60 |
|
|
|
|
9 |
91 |
|
|
|
|
10 |
100 |
|
|
|
|
итог |
520 |
|
+ |
+ |
|
|
|
|
|
|
Метод рассмотрения параллельных данных
Значений х и у в каждой из пар
Единицы наблюдения распологаются по возрастанию и затем сравнивается поведение результативного признака у
В нашем примере в большенстве случаев по мере увеличения факторного признака возростает и результативный поэтому можно говорить о прямой зависимости между ними
Простейший покащатель тесноты связи основанный на сравнении поведения индивидуальных значений каждого признака от своей средней величины при этом во внимание принимаются не величины отклонений а их знаки
Определив знаки отклонений от средней величина в каждом ряду расматривают все пары знаков и подсчитывают число хи совпадений и несовпадений
Тогда коэф корелл рассматривается как разности чисел
Кф=(∑с-∑н)/(∑c+∑н)
При значении Кф более 0.5 считается что связь сильновыраженна
Очевидно что если знаки всех отклонений совпадут то Кф =1
Что характеризует наличие прямой связи
Если все знаки несовпадут то связь обратная
Графический метод при котором корелляционную зависимость для наглядности можно изобразить на графике для этогоимея n взаимосвязанных пар пользуясь прямой системой координат каждую такую пару изображают в виде точки на плоскости и соеденяют и получают эмпирическую линию регрессии
Метод аналитических группировок
Что бы выявить наличие связи проводится группирровка единиц совокупности по факторному признаку и для каждой выделенной группы расчитывается среднее значение результативного признака
Если результативный признак зависит от факторного то в изменении результативного будет прослеживатся определенная закономерность
Метод корелляционных таблиц предполагает комбинационнное разделения единиц совокупности по 2-м количественным признакам
Таблица строится
В строках выделяются группы по факторному признаку
А в столбцах по результативному
В клетках таблицы на пересечении значений факторного и результативного признаков показывается число случаев совпадегия каждого значения факторного признака с соответствующим значением результативного
Метод корелляционных таблиц применим не только к количественным но и к качественным признакам взаимосвязи между которыми часто приходится изучать
При проведении различных соц опросов путем анкетирования
В этом случае эти таблицы называют таблицы сопряженности
Они могут иметь различную размерность простейшая размерность таблицы сопряженности 2*2 в которой альтернативному признаку выделяется 2 группы
выводы о зависимости признаков сделанные на глаз часто могут быть неадекватными
Поэтому они должны подкреплятся определенными статистическими критериями
Например критерием пирсона
Данный критерий позволяет судить о случайности распределения в таблицах взаимной сопряженности а следовательно и об отсутствии или наличии зависимости между признаками
Что бы воспользоватся критерием пирсона в таблице взаимной сопряженности на ряду с эмпирическими частотами записывают теоретические частоты расчитываемые исходя
Из предположения что распределения внутри таблицы случайна и следовательно
Зависимость между признаками группировки оотсутствует т.е считается что распределение частот в каждой строке таблицы проппрционально распределению частот
В итоговой строке
Следовательно теоретические частоты составят 30 % от 300
Хи2=∑∑(fij-f’ij)2/f’i
(30-90)2/90+(270-210)2/210+(120-60)2/60+(80-140)2/140=142,85
Расчитанное значение критерия пирсона сопоставляют с табличным пороговым уровнем
Который находится исходя из числа степеней свободы корелляционной таблице
V=(k1-1)(k2-1) где к 1 и к2 число групп по первому и второму признакам таблицу сопряженности
Степень свободы будет равен 6.63
Поскольку расчитанное значение больше порогового мы можем утверждать что существует статистическая зависимость между рассматриваемыми показателями