Добавил:
Upload Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:

кирюха курсач

.docx
Скачиваний:
9
Добавлен:
10.06.2015
Размер:
157 Кб
Скачать

28

Оглавление:

1) Введение в статистику: предмет и метод статистики…………….3

2) Методы изучения взаимосвязей в статистике…………………… 4

3) Основные методы изучения взаимосвязей………………………..4

* метод параллельных рядов

* балансовый метод

* метод аналитических группировок

* дисперсионный анализ

4) Основные понятия корреляционного и

регрессионного анализа……………………………………………...11

5) Парная корреляция и парная линейная регрессия………………15

6) Оценка значимости параметров взаимосвязи…………………...20

7) Непараметрические методы оценки связи………………………21

8)Списоклитературы……………………………………………………………..22

Введение в статистику: предмет и метод статистики

Слово статистика имеет латинское происхождение: от лат. status — "состояние", что означало политическое состояние государства. В науку термин статистика ввел в 1746 г. Готфрид Ахенваль, который преподавал курс Государствоведение в Германии, изменив его название на "СТАТИСТИКА".

В настоящее время данный термин употребляется в 4 значениях:

  1. Наука, изучающая количественную и качественную сторону массовых общественных явлений и процессов, исследует количественное выражение закономерностей их развития в конкретных условиях места и времени, учебный предмет в ВУЗах;

  2. Цифры, характеризующие массовые общественные явления и процессы;

  3. Деятельность по сбору, обработке, анализу и публикации цифровых данных о самых различных явлениях и процессах общественной жизни;

  4. Параметры рядов случайных величин, рассчитываемые по результатам наблюдений и применяющиеся для проверки различных гипотез преимущественно в математической статистике (например, F-статистика).

Совокупность приемов, пользуясь которыми статистика исследует свой предмет, составляет метод статистики. Можно выделить 3 группы статистических методов (этапов статистического исследования):

  1. Статистическое наблюдение — это сбор всех существеных фактов об изучаемом явлении и научно организованная их регистрация;

  2. Сводка и группировка — это систематизация и классификация собранных статистических данных;

  3. Статистический анализ — это расчет статистических показателей, позволяющий описать изучаемое явление, выявить его динамику, структуру, взаимосвязь с другими явлениями, закономерности, сделать прогнозы на будущее.

Кроме методов статистика использует 5 категорий (ключевых понятий):

  1. Статистическая совокупность — это массовое общественное явление, которое необходимо исследовать;

  2. Единица статистической совокупности — это составной элемент статистической совокупности, являющийся носителем изучаемых признаков;

  3. Признак единицы статистической совокупности — свойства единицы совокупности, которые различаются способами их измерения и другими особенностями;

  4. Статистический показатель – рассчитываемое статистикой значение, характеризующее количественные характеристики изучаемого явления;

  5. Система статистических показателей – набор статистических показателей, отражающий взаимосвязи, существующие между явлениями.

Методы изучения взаимосвязей в статистике

Формы проявления взаимосвязей весьма разнообразны. В качестве двух самых общих их видов выделяют функциональную (полную) и корреляционную (неполную) связи. В первом случае величине факторного признака строго соответствует одно или несколько значений функции. Достаточно часто функциональная связь проявляется в физике, химии. В экономике примером может служить прямо пропорциональная зависимость между производительностью труда и увеличением производства продукции. Основные методы изучения взаимосвязей. Для изучения, измерения и количественного выражения взаимосвязей между явлениями в статистике применяются различные методы, важнейшими из которых являются: метод сопоставления, метод параллельных рядов, балансовый, графический, методы аналитических группировок, дисперсионного и корреляционного анализа.

Метод параллельных рядов. Чтобы установить связь между явлениями, достаточно расположить полученные в результате сводки и обработки материалы в виде параллельных рядов и сопоставить их между собой. Такое сопоставление, проведенное после теоретического анализа, показавшего возможность связи между изучаемыми явлениями, позволяет проследить числовые соотношения сопоставляемых признаков и направление их изменений, т.е. позволяет установить наличие связи и получить представление о ее характере.

Пример. В табл. 1 показано производство и себестоимость цемента по десяти предприятиям.

Сопоставление двух рядов показывает, что между производительностью предприятия (компании, фирмы) и себестоимостью производимой продукции существует обратная связь: с увеличением объема продукции предприятия себестоимость 1 т цемента снижается.

Балансовый метод. Для характеристики взаимосвязи между явлениями в статистике применяется балансовый метод. Сущность его заключается в том, что данные взаимосвязанных показателей изображаются в виде таблицы и располагаются таким образом, чтобы итоги между отдельными частями были равны, т.е. чтобы был баланс. Балансовый метод используется для характеристики взаимосвязи между производством и реализацией продукции, денежными доходами и расходами населения и т.д.

Метод аналитических группировок. При наличии массовых статистических данных для изучения массовых явлений широко используются методы аналитических группировок. Аналитические группировки позволяют установить наличие связи между двумя и более признаками и ее направление.

Таблица 1

 Производство цемента и себестоимость его по 10 предприятиям

 

Название предприятия

Произведено цемента,тыс.т

Себестоимость 1 т, руб.

"Красный цемент"

100,0

70,0

"Эвтека"

96,0

76,0

"Спецстройконструкция"

80,0

80,0

"Стройинвест"

60,0

90,0

"'Стройматериалы"

55,0

95,0

"Зодиак"

50,0

100,0

"Европейская строительная компания"

40,0

108,0

"Группа Кентавр"

30,0

120,0

"Адамант"

20,0

140,0

"Агрострой"

10,0

170,0

 

Метод группировок сочетается с методом средних и отдельных величин. Сущность метода аналитических группировок заключается в том, что единицы статистической совокупности группируются, как правило, по факторному признаку и для каждой группы исчисляется средняя или относительная величина по результативному признаку. Затем изменения средних или относительных значений результативного признака составляются с изменением факторного признака для выявления характера связи между ними.

Дисперсионный анализ. Аналитические группировки при всей своей значимости не дают количественного выражения тесноты связи между признаками. Эта задача решается при помощи дисперсионного и корреляционного анализов.

Дисперсионной анализ дает прежде всего возможность определить роль систематической и случайной вариации в общей вариации и, следовательно, установить роль изучаемого фактора в изменении результативного признака. Для этого пользуются правилом сложения дисперсий, согласно которому общая дисперсия равна сумме двух дисперсий: средней из внутригрупповых и межгрупповой 

Для характеристики тесноты корреляционной связи между признаками в аналитических группировках межгрупповую дисперсию сопоставляют с общей. Это отношение называется корреляционным и обозначается .

Оно характеризует долю вариации результативного признака, вызванного воздействием факторного признака, положенного в основание группировки. Корреляционное отношение по своему абсолютному значению колеблется в пределах от 0 до 1. Чем ближе корреляционное отношение к 1, тем большее влияние оказывает факторный признак на результативный. Если же факторный признак не влияет на результативный, то вариация , обусловленная им, будет равна нулю (δ2 = 0) и корреляционное отношение также равно нулю (η2 = 0), что свидетельствует о полном отсутствии связи. И наоборот, если результативный признак изменяется только под воздействием одного факторного признака, то вариация, обусловленная этим признаком, будет равна общей вариации (δ2 = σ2), и корреляционное отношение будет равно единице (η2 = 1), что говорит о наличии полной связи.

Пример. Определить при помощи корреляционного отношения тесноту связи между числом обслуживаемых станков и средней выработкой одной ткачихи (табл. 2)

Дисперсионный анализ позволяет не только определить роль случайной и систематической вариации,но и оценить достоверность вариации, обнаруженной методом аналитических группировок. Определение достоверности вариации дает возможность с заданной степенью вероятности установить, чем вызвана межгрупповая вариация – признаком, положенным в основание группировки, или является результатом действия случайных причин.

  Таблица 2

  Дневная выработка ткачих, м

 

 

Следовательно, 93,1% всей вариации объясняется тем, что часть ткачих работала на 32 станках, а часть – на 48 и только 6,9% вариации является результатом действия прочих случайных факторов, не положенных в основание группировки.

Для оценки существенности корреляционного отношения пользуются критическими значениями корреляционного отношения η при разных уровнях вероятности или значимости а. Уровень значимости – это достаточно малое значение вероятности, отвечающее событиям, которые в данных условиях исследования будут считаться практически невозможными. Появление такого события является указанием на неправильность начального предположения. Чаще всего пользуются уровнями а = 0,05 или а = 0,01. Критические значения корреляционного отношения содержатся в специальных таблицах (см. приложение 4).

В этих таблицах распределение η2 при случайных выборках зависит от числа степеней свободы факторной и случайной дисперсий.

Число степеней свободы факторной дисперсии К1 = т - 1, где т – число групп, а для случайной дисперсии К2 = n - т, где n – число вариант, m – число групп. В нашем примере 10 ткачих сгруппированы в две группы по числу обслуживаемых станков. Поэтому R1 = т - 1 = 2 - 1 = 1,a R2 = n - m = 10 - 2 = 8. По таблице приложения 4 находим критическое значение η2, соответствующее R1 = 1 и R2 = 8 для уровней значимости a = 0,05, которое равно: η2(0,05) = 0,399. Это значит, что только в пяти случаях из 100 может случайно возникнуть корреляционное отношение, превышающее 0,399, а в 95 случаях из 100 корреляционное отношение не может быть больше 0,399. Теперь фактическое значение корреляционного отношения надо сравнить с критическим, табличным. Если оно окажется больше критического, то связь между результативным и факторным признаками считается существенной, если же фактическое значение корреляционного пменьше табличного, то связь между указанными признаками считается несущественной. В рассматриваемом нами примере фактическое значение корреляционного отношения η2 = 0,93 больше табличного η2(0,05) = 0,399. Поэтому связь между числом обслуживаемых станков и выработкой является существенной.

При проверке существенной связи чаще пользуются критерием Фишера, потому что при больших числах степеней свободы его табличные значения мало изменяются, в отличие от корреляционного отношения, которое требует более громоздких таблиц. Критерий Фишера представляет собой отношение межгрупповой дисперсии к средней из среднегрупповых дисперсий, исчисленных с учетом числа степеней свободы:

 

 Для этих отношений Фишер (отсюда название "критерий Фишера") составил таблицы, по которым можно определить, какая величина F при данном числе степеней свободы по факторной вариации (R1) и остаточной вариации (R2) дает основание утверждать с определенной вероятностью (например, 0,95 х 0,399), что положенный в основание группировки признак является несущественным (см. приложение 5).

 

 При уровне значимости а = 0,05, К1 = 1 и К2 = 8 критическое табличное значение F = 5,32. Значит, уже при значении F = 5,32 можно с вероятностью 0,95 утверждать, что группировочный признак (число обслуживаемых станков) является весьма существенным. В нашем примере F = 108,1. Тем более есть основания считать, что полученные в результате группировки данные являются вполне достоверными.

Зная корреляционное отношение, можно определить критерий Фишера по следующей формуле:

 

 

Мы рассмотрели схему дисперсионного анализа при группировке по одному факторному признаку. Аналогично проводится анализ при комбинационной группировке по двум и более факторам. В этих случаях необходима оценка достоверности влияния не только каждого положенного в основание группировки фактора в отдельности, но и результаты их взаимодействия. Последний определяется как разность между эффектом совместного влияния двух группировочных признаков и суммой эффектов влияния каждого из этих факторных признаков, взятых в отдельности. Это осложняет расчеты суммы квадратов отклонений и числа свободы вариации. Но сам принцип дисперсионного анализа, заключающийся в сопоставлении факторной дисперсии со случайной для оценки достоверности результатов статистической группировки, неизменен при любом числе признаков группировки.

Основные понятия корреляционного и регрессионного анализа. Исследуя природу, общество, экономику, необходимо считаться со взаимосвязью наблюдаемых процессов и явлений. При этом полнота описания так или иначе определяется количественными характеристиками причинно-следственных связей между ними. Оценка наиболее существенных из них, а также воздействия одних факторов на другие является одной из основных задач статистики.

Формы проявления взаимосвязей весьма разнообразны. В качестве двух самых общих их видов выделяют функциональную (полную) и корреляционную (неполную) связи. В первом случае величине факторного признака строго соответствует одно или несколько значений функции. Достаточно часто функциональная связь проявляется в физике, химии. В экономике примером может служить прямо пропорциональная зависимость между производительностью труда и увеличением производства продукции.

Корреляционная связь (которую также называют неполной, или статистической) проявляется в среднем, для массовых наблюдений, когда заданным значениям зависимой переменной соответствует некоторый ряд вероятных значений независимой переменной. Объяснение тому – сложность взаимосвязей между анализируемыми факторами, на взаимодействие которых влияют неучтенные случайные величины. Поэтому связь между признаками проявляется лишь в среднем, в массе случаев. При корреляционной связи каждому значению аргумента соответствуют случайно распределенные в некотором интервале значения функции.

Например, некоторое увеличение аргумента повлечет за собой лишь среднее увеличение или уменьшение (в зависимости от направленности) функции, тогда как конкретные значения у отдельных единиц наблюдения будут отличаться от среднего. Такие зависимости встречаются повсеместно. Например, в сельском хозяйстве это может быть связь между урожайностью и количеством внесенных удобрений. Очевидно, что последние участвуют в формировании урожая. Но для каждого конкретного поля, участка одно и то же количество внесенных удобрений вызовет разный прирост урожайности, так как во взаимодействии находится еще целый ряд факторов (погода, состояние почвы и др.), которые и формируют конечный результат. Однако в среднем такая связь наблюдается – увеличение массы внесенных удобрений ведет к росту урожайности.

По направлению связи бывают прямыми, когда зависимая переменная растет с увеличением факторного признака, и обратными, при которых рост последнего сопровождается уменьшением функции. Такие связи также можно назвать соответственно  положительными и отрицательными.

Относительно своей аналитической формы связи бывают линейными и нелинейными. В первом случае между признаками в среднем проявляются линейные соотношения. Нелинейная взаимосвязь выражается нелинейной функцией, а переменные связаны между собой в среднем нелинейно.

Существует еще одна достаточно важная характеристика связей с точки зрения взаимодействующих факторов. Если характеризуется связь двух признаков, то ее принято называть парной. Если изучаются более чем две переменные – множественной.

Указанные выше классификационные признаки наиболее часто встречаются в статистическом анализе. Но кроме перечисленных различают также непосредственные, косвенные и ложные связи. Собственно, суть каждой из них очевидна из названия. В первом случае факт+оры взаимодействуют между собой непосредственно. Для косвенной связи характерно участие какой-то третьей переменной, которая опосредует связь между изучаемыми признаками. Ложная связь – это связь, установленная формально и, как правило, подтвержденная только количественными оценками. Она не имеет под собой качественной основы или же бессмысленна.

По силе различаются слабые и сильные связи. Эта формальная характеристика выражается конкретными величинами и интерпретируется в соответствии с общепринятыми критериями силы связи для конкретных показателей.

В наиболее общем виде задача статистики в области изучения взаимосвязей состоит в количественной оценке их наличия и направления, а также характеристике силы и формы влияния одних факторов на другие. Для ее решения применяются две группы методов, одна из которых включает в себя методы корреляционного анализа, а другая – регрессионный анализ. В то же время ряд исследователей объединяет эти методы в корреляционно-регрессионный анализ, что имеет под собой некоторые основания: наличие целого ряда общих вычислительных процедур, взаимодополнения при интерпретации результатов и др.

Поэтому в данном контексте можно говорить о корреляционном анализе в широком смысле – когда всесторонне характеризуется взаимосвязь. В то же время выделяют корреляционный анализ в узком смысле – когда исследуется сила связи – и регрессионный анализ, в ходе которого оцениваются ее форма и воздействие одних факторов на другие. Задачи собственно корреляционного анализа сводятся к измерению тесноты связи между варьирующими признаками, определению неизвестных причинных связей и оценке факторов оказывающих наибольшее влияние на результативный признак.

Задачи регрессионного анализа лежат в сфере установления формы зависимости, определения функции регрессии, использования уравнения для оценки неизвестных значении зависимой переменной.

Решение названных задач опирается на соответствующие приемы, алгоритмы, показатели, применение которых дает основание говорить о статистическом изучении взаимосвязей.

Следует заметить, что традиционные методы корреляции и регрессии широко представлены в разного рода статистических пакетах программ для ЭВМ. Исследователю остается только правильно подготовить информацию, выбрать удовлетворяющий требованиям анализа пакет программ и быть готовым к интерпретации полученных результатов. Алгоритмов вычисления параметров связи существует множество, и в настоящее время вряд ли целесообразно проводить такой сложный вид анализа вручную. Вычислительные процедуры представляют самостоятельный интерес, но знание принципов изучения взаимосвязей, возможностей и ограничений тех или иных методов интерпретации результатов является обязательным условием исследования.

Методы оценки тесноты связи подразделяются на корреляционные (параметрические) и непараметрические. Параметрические методы основаны на использовании, как правило, оценок нормального распределения и применяются в случаях, когда изучаемая совокупность состоит из величин, которые подчиняются закону нормального распределения. На практике это положение чаще всего принимается априори. Собственно, эти методы – параметрические – и принято называть корреляционными.

Непараметрические методы не накладывают ограничений на закон распределения изучаемых величин. Их преимуществом является и простота вычислений.

Парная корреляция и парная линейная регрессия

В основу группировки положены два изучаемых во взаимосвязи признака – Х и У. Частоты fij показывают количество соответствующих сочетаний Х и У. Если fij расположены в таблице беспорядочно, можно говорить об отсутствии связи между переменными. В случае образования какого-либо характерного сочетания fij допустимо утверждать о связи между Х и У. При этом, если fij концентрируется около одной из двух диагоналей, имеет место прямая или обратная линейная связь.Наглядным изображением корреляционной таблице служит корреляционное поле. Оно представляет собой график, где на оси абсцисс откладывают значения Х, по оси ординат – У, а точками показывается сочетание Х и У. По расположению точек, их концентрации в определенном направлении можно судить о наличии связи.В итогах корреляционной таблицы по строкам и столбцам приводятся два распределения – одно по X, другое по У. Рассчитаем для каждого Хi среднее значение У, т.е.  , какПоследовательность точек (Xi ) дает график, который иллюстрирует зависимость среднего значения результативного признака У от факторного X, – эмпирическую линию регрессии, наглядно показывающую, как изменяется У по мере изменения X.По существу, и корреляционная таблица, и корреляционное поле, и эмпирическая линия регрессии предварительно уже характеризуют взаимосвязь, когда выбраны факторный и результативный признаки и требуется сформулировать предположения о форме и направленности связи. В то же время количественная оценка тесноты связи требует дополнительных расчетов.

Практически для количественной оценки тесноты связи широко используют линейный коэффициент корреляции. Иногда его называют просто коэффициентом корреляции. Если заданы значения переменных Х и У, то он вычисляется по формуле

Можно использовать и другие формулы, но результат должен быть одинаковым для всех вариантов расчета.Коэффициент корреляции принимает значения в интервале от -1 до + 1. Принято считать, что если  |r| < 0,30, то связь слабая; при  |r| = (0,3÷0,7) – средняя; при  |r| > 0,70 – сильная, или тесная. Когда  |r| = 1 – связь функциональная. Если же r принимает значение около 0, то это дает основание говорить об отсутствии линейной связи между У и X. Однако в этом случае возможно нелинейное взаимодействие. что требует дополнительной проверки и других измерителей, рассматриваемых ниже.Для характеристики влияния изменений Х на вариацию У служат методы регрессионного анализа. В случае парной линейной зависимости строится регрессионная модель где n – число наблюдений;а0, а1 – неизвестные параметры уравнения;  ei – ошибка случайной переменной У.Уравнение регрессии записывается какгде Уiтеор – рассчитанное выравненное значение результативного признака после подстановки в уравнение X.Параметры а0 и а1 оцениваются с помощью процедур, наибольшее распространение из которых получил метод наименьших квадратов. Его суть заключается в том, что наилучшие оценки ag и а, получают, когда

т.е. сумма квадратов отклонений эмпирических значений зависимой переменной от вычисленных по уравнению регрессии должна быть минимальной. Сумма квадратов отклонений является функцией параметров а0 и а1. Ее минимизация осуществляется решением системы уравнений

Соседние файлы в предмете [НЕСОРТИРОВАННОЕ]