- •Часть I. Общая теория статистики
- •Тема 1. Предмет и метод статистики
- •Тема 2. Статистическое наблюдение
- •1.Понятие статистического наблюдения
- •Программно-методологические и организационные вопросы статистического наблюдения.
- •Формы, виды наблюдения.
- •Тема 3. Сводка и группировка данных статистического наблюдения Понятие группировки статистических данных
- •Классификация группировок
- •Группировка по количественному признаку
- •Статистические таблицы
- •Тема 4. Статистические величины Абсолютные величины
- •Относительные величины
- •Тема 5. Средние величины Значение средних величин в социально-экономических исследованиях
- •Виды средних величин
- •Тема 6. Статистические ряды распределения и их основные характеристики Вариация признака в совокупности
- •Показатели вариации
- •Нормальный закон распределения
- •Виды дисперсий. Правило сложения дисперсий
- •Тема 7. Выборочное наблюдение Понятие о выборочном наблюдении и его теоретические основы
- •Простая случайная выборка
- •Малая выборка
- •Тема 8. Корреляционно-регрессионный анализ
- •Тема 9. Индексы Понятие индексов
- •Индивидуальные индексы
- •Общие индексы
- •Индексы средних величин
- •Тема 10. Ряды динамики
- •Тема 11. Статистические графики
- •Задания к семинарским занятиям
- •Тема 1.Предмет и метод статистики
- •Тема 2.Статистическое наблюдение
- •Тема 3. Статистическая сводка
- •Тема 4. Статистические величины
- •Тема 5. Средние величины
- •Тема 6. Статистические ряды распеделения и их основные характеристики
- •Тема 7. Выборочное наблюдение
- •Тема 8. Корреляционно-регрессионный анализ
- •Тема 9. Индексы
- •Тема 10. Ряды динамики
- •Тема 11. Графические способы изображения статистических данных
- •Вопросы к экзамену
Тема 8. Корреляционно-регрессионный анализ
Статистические распределения характеризуются наличием более или менее значительной вариации в величине признака у отдельных единиц совокупности. Изучение зависимости вариации признака от окружающих условий и составляет содержание теории корреляции. Рассматривая зависимости между признаками, необходимо выделить прежде всего две категории зависимости: функциональные и корреляционные.
Функциональные связи характеризуются полным соответствием между изменением факторного признака и изменением результативной величины, и каждому значению признака – фактора соответствует вполне определенные значения результативного признака.
В корреляционных связях между изменением факторного и результативного признака нет полного соответствия, воздействие отдельных факторов проявляется лишь в среднем при массовом наблюдении фактических данных.
При изучении зависимости одни признаки выступают в качестве факторов (факторные признаки), другие – являются результатом влияния этих факторов (результативные признаки). Показатели степени тесноты связи дают возможность охарактеризовать зависимость вариации результативного признака от вариации признака-фактора.
Одним из показателей степени тесноты связи является линейный коэффициент корреляции.
Корреляционный анализ является одним из методов статистического анализа взаимозависимости нескольких признаков.
Основная задача корреляционного анализа – определение матрицы частных и множественных коэффициентов корреляции и детерминации.
Парный коэффициент корреляции характеризует тесноту линейной зависимости между двумя переменными. Он изменяется в пределах от 1 до +1, причем чем ближе коэффициент корреляции к 1, тем сильнее зависимость между переменными. Если коэффициент корреляции больше нуля, то связь положительная, а если меньше нуля, то отрицательная.
Исходной для анализа является матрица:
Размерности n х k, I-я строка которой характеризует i-е наблюдение по всем k показателям.
Парный коэффициент корреляции рассчитывается по формуле:
,
где rij – парный коэффициент корреляции, характеризующий тесноту линейной связи между показателями и .
Sj = , где S – вектор средних квадратических отклонений
Xij - значение I-го фактора
Значимость парных коэффициентов корреляции, т.е. гипотеза H0: ρ = 0, проверяется по t критерию Стьюдента.
Наблюдаемое значение критерия находится по формуле:
Tнабл. =
Где r – оценка парного коэффициента корреляции ρ.
Проверяемый коэффициент корреляции считается значимым, т.е. гипотеза Ho: ρ = 0 отвергается с вероятностью ошибки l, если tнабл. по модулю будет больше, чем значение tкр., определяемое по таблицам t-распределения для заданного и = . Теория корреляционного анализа основана на предположении о том, что распределение показателей носит нормальный характер.
Регрессионный анализ – это статистический метод исследования зависимости случайной величины y от переменных , рассматриваемые в регрессионном анализе как неслучайные величины независимо от истинного закона распределения .
Наиболее часто используемая множественная линейная модель регрессивного анализа имеет вид: ,
где - параметры регрессионной модели,
– случайные ошибки наблюдения, на зависимые друг от друга, имеет нулевую среднюю и дисперсию.
Коэффициент регрессии показывает, на какую величину в среднем изменится результативный признак у, если переменную увеличить на единицу измерения.
В случае парной линейной зависимости строится регрессионная модель:
,
где i=1,…,n, n- число наблюдений,
b0, b1 – неизвестные параметры уравнений,
- ошибка случайной переменной Y.
Уравнение регрессии записывается как:
Параметры уравнения регрессии оцениваются с помощью метода наименьших квадратов и находятся по формулам:
, .
В1 – коэффициент регрессии. Он показывает на сколько в среднем изменится результативный признак при изменении факторного на 1 единицу.