- •Методическое пособие по курсу «общая теория статистики»
- •Часть II Курс лекций
- •Тема 1. Предмет и метод статистики.
- •Статистика как наука.
- •Предмет статистики.
- •Метод статистики.
- •Задачи статистики.
- •Организация статистики.
- •Тема 2. Статистическое наблюдение.
- •Общее понятие о статистическом наблюдении.
- •Основные организационные формы статистического наблюдения.
- •Виды статистических наблюдений.
- •Способы статистического наблюдения.
- •Программно-методологическое и организационное обеспечение статистического наблюдения.
- •Ошибки наблюдения.
- •Случайные
- •Систематические
- •Тема 3. Сводка и группировка статистических
- •Содержание и назначение сводки.
- •Метод группировок.
- •3. Расчет интервала группировок.
- •Методологические требования к системам группировок.
- •Графики рядов распределения.
- •Тема 4. Статистические таблицы.
- •Тема 5. Абсолютные и относительные величины.
- •Абсолютные величины.
- •Относительные величины.
- •Комплексное использование абсолютных и относительных величин.
- •Тема 6. Графическое изображение
- •1. Понятие о статистическом графике. Элементы графика.
- •2. Виды графиков и их классификация.
- •Тема 7. Средние величины.
- •3. Выбор формулы средней.
- •4. Свойства средней арифметической.
- •5. Мода, медиана.
- •6. Межорантность средних.
- •7. Соотношение средних в зависимости от характера распределения.
- •Тема 8. Показатели вариации.
- •1. Общее понятие о вариации признака.
- •2. Расчет основных показателей вариации.
- •3. Расчет дисперсии, ее свойства.
- •4. Дисперсия альтернативного качественного признака.
- •Тема 9. Ряды динамики.
- •1. Динамические ряды как база исследования экономической динамики.
- •2. Аналитические показатели динамического ряда.
- •3. Сглаживание и выравнивание динамических рядов.
- •4. Изучение сезонных колебаний.
- •5. Экстраполяция и интерполяция в рядах динамики.
- •Тема 10. Индексы.
- •1. Общее понятие об индексах.
- •2. Сводные индексы в агрегатной форме.
- •3. Сводные индексы в средней арифметической и средней гармонической формах.
- •4. Системы индексов.
- •5. Индексный метод анализа динамики среднего уровня качественного показателя.
- •Тема 11. Выборочное наблюдение.
- •1. Общее понятие о выборочном наблюдении.
- •2. Способы отбора единиц в выборочную совокупность.
- •3. Определение необходимого объема выборки.
- •4. Малая выборка.
- •Тема 12. Статистический анализ структуры.
- •1. Понятие структуры и направления ее исследования.
- •2. Частные показатели структурных сдвигов.
- •3. Обобщающие показатели структурных сдвигов.
- •4. Показатели концентрации и централизации.
- •Тема 13. Статистическое изучение взаимосвязи
- •1. Причинность, регрессия, корреляция.
- •2. Парная регрессия на основе метода наименьших квадратов.
- •3. Множественная регрессия.
- •4. Собственно-корреляционные параметрические методы изучения связи.
- •5. Методы изучения связи качественных признаков.
- •6. Ранговые коэффициенты связи.
Тема 13. Статистическое изучение взаимосвязи
социально-экономических явлений.
1. Причинность, регрессия, корреляция.
В процессе статистического исследования зависимостей вскрываются причинно-следственные отношения между явлениями, что позволяет выявлять факторы (признаки), оказывающие основное влияние на вариацию изучаемых явлений и процессов. Причинно-следственные отношения -- это такая связь явлений и процессов, когда изменение одного из них -- причины ведет к изменению другого -- следствия.
Социально-экономические явления представляют собой результат одновременного воздействия большого числа причин. Следовательно, при изучении этих явлений необходимо выявлять главные, основные причины, абстрагируясь от второстепенных.
В основе первого этапа статистического изучения связи лежит качественный анализ, связанный с анализом природы социального или экономического явления методами экономической теории, социологии, конкретной экономики. Второй этап - построение модели связи, базируется на методах статистики: группировках, средних величинах, таблицах и так далее. Третий, последний этап - интерпретация результатов, вновь связан с качественными особенностями изучаемого явления. Статистика разработала множество методов изучения связей. Выбор метода изучения связи зависит от цели исследования, от поставленной задачи.
Признаки по их значению для изучения взаимосвязи делятся на два класса. Признаки, обуславливающие изменения других, связанных с ними признаков, называют факторными, или просто факторами. Признаки, изменяющиеся под действием факторных признаков, называют результативными.
В статистике различают функциональную и стохастическую зависимости. Функциональной называют такую связь, при которой определенному значению факторного признака соответствует одно значение результативного.
Если причинная зависимость проявляется не в каждом отдельном случае, а в общем, среднем при большом числе наблюдений, то такая зависимость называется стохастической. Частным случаем стохастической связи является корреляционная связь, при которой изменение среднего значения результативного признака обусловлено изменением факторных признаков.
Связи между явлениями и их признаками классифицируются по степени тесноты, направлению и аналитическому выражению.
По степени тесноты связи различают:
Величина коэффициента корреляции |
Теснота связи |
до S 0,3S |
практически отсутствует |
S 0,3S - S 0,5S |
слабая |
S 0,5S - S 0,7S |
умеренная |
S 0,7S - S 1,0S |
сильная |
По напралению выделяют связь прямую и обратную. Прямая - это такая связь, при которой с увеличением или с уменьшением значения факторного признака происходит увеличение или уменьшение значений результативного. Так, например, рост производительности труда способствует увеличению уровня рентабельности производства. В случае обратной связи значения результативного признака изменяются под воздействием факторного, но в противоположном направлении по сравнению с изменением факторного признака. Так, с увеличением уровня фондоотдачи снижается себестоимость единицы производимой продукции.
По аналитическому выражению выделяют связи прямолинейные (или просто линейные) и нелинейные. Если статистическая связь между явлениями может быть приблизительно выражена уравнением прямой линии, то ее называют линейной связью вида: _
yx = a0 + a1*x
Если связь может быть выражена уравнением какой-либо кривой линии, например параболы _
yx = a0 + a1*x + a2*x2
или гиперболы _ 1
yx = a0 + a1* --
x
то такую связь называют нелинейной или криволинейной. Для выявления наличия связи, ее характера и направления в статистике используются методы: приведения параллельных данных, аналитических группировок, графический, корреляции.
Корреляция - это статистическая зависимость между случайными величинами, не имеющая строго функционального характера, при которой изменение одной из случайных величин приводит к изменению математического ожидания другой.
В статистике принято различать следующие варианты зависимостей:
Парная корреляция - связь между двумя признаками (результативным и факторным, или двумя факторными).
Частная корреляция - зависимость между результативным и одним факторным признаками при фиксированном значении других факторных признаков.
Множественная корреляция - зависимость результативного и двух или более факторных признаков, включенных в исследование.
Корреляционный анализ имеет своей задачей количественное определение тесноты связи между двумя признаками (при парной связи) и между результативным и множеством факторных признаков (при многофакторной связи).
Теснота связи количественно выражается величиной коэффициентов корреляции, которые давая количественную характеристику тесноты связи между признаками, позволяют определять «полезность» факторных признаков при построении уравнения множественной регрессии.
Корреляция тесно связана с регрессией: первая оценивает силу (тесноту) статистической связи, вторая исследует ее форму.
Регрессионный анализ заключается в определении аналитического выражения связи, в котором изменение одной величины (называемой зависимой или результативным признаком), обусловлено влиянием одной или нескольких независимых величин (факторов).
Одной из проблем построения уравнений регрессии является их размерность, то есть определение числа факторных признаков, включаемых в модель. Их число должно быть оптимальным.
Сокращение размерности модели за счет исключения второстепенных, несущественных факторов позволяет получить модель, быстрее и качественнее реализуемую. В то же время, построение модели малой размерности может привести к тому, что она будет недостаточно полно описывать исследуемое явление или процесс.