- •7 Регресійний аналіз
- •7.1 Попередній аналіз даних
- •7.2 Припущення, які використовує регресійний аналіз
- •7.3 Вибір вигляду функції для монотонних процесів
- •7.4 Метод найменших квадратів для оцінки параметрів функції регресії
- •Властивості регресії
- •7.5 Оцінка якості моделі
- •7.6 Критерій Фішера для оцінки адекватності моделі
- •7.7 Перевірка значущості коефіцієнтів регресії
- •7.8 Функції Excel для побудови регресійних залежностей
- •Розв’язання
- •7.9 Парна регресія в матричній формі
- •7.10 Метод найменших квадратів при оцінюванні параметрів поліномів
- •Розв’язання
- •7.11 Множинний регресійний аналіз
- •7.11.1 Матричний спосіб оцінки параметрів множинної регресії
- •7.11.2 Перевірка значущості коефіцієнтів регресії
- •7.11.3 Перевірка якості моделі. Скоригований коефіцієнт детермінації
- •7.11.4 Парна й часткова кореляції
- •Розв’язання.
- •7.12 Методи побудови багатофакторної регресійної моделі
- •7.12.1 Вибір "найкращого" рівняння регресії
- •7.12.2 Метод усіх можливих регресій
- •7.12.3 Метод виключень
- •7.12.4 Кроковий регресійний метод
- •Питання і завдання до розділу 7
- •Лабораторна робота Тема. Парний регресійний аналіз
- •Лабораторна робота Тема. Множинний регресійний аналіз
- •8 Дисперсійний аналіз
- •8.1 Однофакторний дисперсійний аналіз
- •Розв’язання.
- •Питання і завдання до розділу 8
- •Лабораторна робота Тема. Однофакторний дисперсійний аналіз
- •9 Ранговий аналіз
- •9.1 Коефіцієнт рангової кореляції Кенделла (Кендалла)
- •9.2 Коефіцієнт рангової кореляції Спірмена
- •Розв’язок.
- •9.3 Коефіцієнт конкордації
- •Питання і завдання до розділу 9
7.9 Парна регресія в матричній формі
Нехай є вибірка з n спостережень (x1, y1), (x2, y2), ..., (xn, yn) для змінних Y і Х. Рівняння регресії шукаємо у вигляді
, i = 1, 2, ..., n (7.9)
або в розгорнутому вигляді
. (7.10)
Розглянемо вектори-стовпці
, ,
і матрицю розмірності n (m+1):
.
Тоді, відповідно до правил множення й додавання матриць, матричний запис системи рівнянь (7.10) набуває вигляду
. (7.11)
Припустимо, що n > m+1, тобто число спостережень перевищує число параметрів моделі. У протилежному випадку неможлива оцінка параметрів. Вважаємо також, що функції f0(x)=1, f1(x), ..., fm (x) - лінійно незалежні. У цьому випадку ранг (число лінійно незалежних рядків або стовпців) матриці дорівнює m+1.
Ранг транспонованої матриці
також дорівнює m+1, причому її розмірність (m+1)n . Добуток матриць і є симетрична матриця розмірності (m+1)(m+1):
(7.12)
Її ранг дорівнює m+1, тобто визначник Це означає, що матриця є невиродженою, отже, існує обернена матриця , що відіграє основну роль у процедурі оцінювання.
Неважко помітити, що матриця є матрицею системи нормальних рівнянь, з якої визначається вектор , компонентами якого є Мнк-оцінки параметрів а0, а1, ..., аm моделі (7.9). Вектор-стовпець правих частин системи можна подати у вигляді , тому матричний запис цієї системи наступний:
. (7.13)
Помножимо ліву й праву частини (7.13) ліворуч на обернену матрицю . Оскільки – одинична матриця порядку m+1, за властивостями одиничної матриці з (7.13) маємо
.
7.10 Метод найменших квадратів при оцінюванні параметрів поліномів
Якщо аналіз діаграми розсіювання дозволить висунути гіпотезу про поліноміальний зв'язок між змінними Y і X:
, (7.14)
то в цьому випадку функція помилок є квадратичною функцією параметрів a0,...,am, a часткові похідні – лінійні щодо параметрів.
Для того щоб знайти a0, ..., am , використовується МНК.
Умова ( ) дозволяє одержати систему рівнянь:
.
Система містить m+1 рівняння з m+1 невідомим. Якщо m< n-1, то система має єдиний розв’язок.
Запишемо систему рівнянь у матричному вигляді. Розглянемо вектори-стовпці
,
і матрицю розмірності n (m+1):
,
.
Вектор-стовпець правих частин системи рівнянь можна представити у вигляді , тому матричний запис цієї системи такий:
.
Помножимо ліву й праву частини ліворуч на обернену матрицю . Одержимо
. (7.15)
У випадку параболічної регресії система має вигляд
.
У статистиці використовують правило вибору ступеня полінома (7.14), яке базується на визначенні величини кінцевих різниць (якщо x змінюється з постійним кроком) або розділених різниць (якщо крок const).
Кінцева різниця 1-го порядку
, .
Розділена різниця
,
, .
Якщо перші різниці постійні, то для моделі обирається поліном першого ступеня.
Якщо перші різниці не постійні, але варіюються з незначними відхиленнями, і середнє арифметичне двох різниць настільки мале, що ним можна знехтувати, то перші різниці вважаються практично рівними.
Аналогічно, якщо аналізуються другі різниці, і ми прийдемо до висновку, що вони практично рівні, то для відображення ряду емпіричних даних використовують поліном другого ступеня й т.д.
Коефіцієнт детермінації R2 розраховується так, як і для лінійної регресії:
.
Адекватність моделі. Розраховуємо критеріальне значення та критичне значення , де ; ; α – рівень значущості; k – кількість параметрів моделі, n – кількість спостережень.
Значення Fкр обчислюємо за допомогою функції FРАСПОБР(α; k-1; n-k). Якщо Fp>Fkp – модель адекватна.
Приклад. Нехай для деякого підприємства відомі середні витрати на рекламу (Y тис. грн) за останні n місяців (Х).
X |
1 |
2 |
3 |
4 |
5 |
6 |
7 |
8 |
9 |
Y |
35,4 |
34,2 |
33,6 |
32,1 |
32,7 |
33,8 |
35,6 |
37,2 |
38,8 |
Необхідно:
-
записати систему рівнянь для визначення невідомих параметрів рівняння поліноміальної регресії другого порядку =a0+a1x+a2x2 ;
-
знайти параметри регресії;
-
обчислити коефіцієнт лінійної кореляції;
-
знайти коефіцієнт детермінації;
-
оцінити адекватність моделі за критерієм Фішера при рівні значущості α=0,01;
-
побудувати графік;
-
зробити прогноз витрат на рекламу до кінця року.