Добавил:
Upload Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:
Тема 7. Многомерные методы и модели. Лекция.doc
Скачиваний:
20
Добавлен:
27.11.2019
Размер:
178.69 Кб
Скачать

§2. Множественный регрессионный анализ.

Предназначен для изучения взаимосвязи одной переменной (зависимой, результирующей) и нескольких других переменных (независимых, исходных). Исходные данные для множественного регрессионного анализа представляют собой таблицу, строки которой соответствуют испытуемым, столбцы – переменным.

Х1

Х2

ХР

1

x11

x12

x1P

2

x21

x22

x2P

n

xn1

xn2

xnP

Все переменные должны быть измерены в количественной шкале. Допускается наличие «фиктивных» переменных, измеренных в дихотомической шкале. Одна из переменных определяется исследователем как зависимая, остальные (или часть их) как независимые. Допускается, что для некоторых объектов значения независимой переменной неизвестны, а их определение (оценка) может составлять важный результат анализа.

МРА может применяться как для решения прикладных задач, так и в исследовательских целях. Обычно МРА применяется для изучения возможности предсказания некоторого результата по ряду измеренных характеристик. При этом предполагается, что связь между одной зависимой переменной (Y) и несколькими независимыми переменными (X) можно выразить линейным уравнением: , где Y – зависимая переменная, х1, х2, …, хР – независимые переменные, b2, …, bР – параметры модели, е – ошибка предсказания.

Например:

МРА позволяет определить, какие показатели важны для предсказания, а какие можно исключить.

Если зависимая переменная Y является номинативной, то модель множественной регрессии неприменима, вместо нее может быть применен дискриминантный анализ, который решает те же задачи и позволяет получить сходные результаты.

МРА может применяться и в том случае, если переменная Y является причиной изменении нескольких переменных х1, х2, …, хР. Так, зависимой переменной может быть скрытая причина, фактор, например личностное свойство, а независимыми переменными - пункты теста, измеряющие различные проявления этого свойства. Таким образом, понятия «зависимая» и «независимая» переменные в МРА являются условными, а определение направления причинно-следственной связи выходит за рамки применения самого метода.

МАТЕМАТИКО-СТАТИСТИЧЕСКИЕ ИДЕИ МЕТОДА

Исходным положением линейного МРА является возможность представления значений «зависимой» переменной Y через значения «независимых» переменных х1, х2, …, хР в виде линейного уравнения: , где b - свободный член, b1, b2, …, bР - коэффициенты регрессии, е - ошибка оценки. Коэффициенты регрессии вычисляются методом наименьших квадратов при решении системы из линейных уравнений, с минимизацией ошибки е.

После вычисления регрессионных коэффициентов по значениям независимых переменных для каждого из объектов могут быть вычислены оценки зависимой переменной Ŷ: .

Сопоставление значений зависимой переменной Y с их оценками Ŷ по выборке испытуемых, для которых значения Y известны, называется анализом остатков или ошибок. Он позволяет оценить возможные погрешности предсказания. Значения оценок Y могут быть вычислены и для испытуемых, истинные значения зависимой переменной для которых неизвестны.

Далее можно вычислить коэффициент корреляции Пирсона (R) между известными значениями «зависимой» переменной Y и ее оценками. Это один из способов получения коэффициента множественной корреляции (КМК) между «зависимой» и «независимыми» переменными. Коэффициент множественной корреляции - это мера линейной связи одной переменной с множеством других переменных; принимает положительные значения от 0 (отсутствие связи) до 1 (строгая прямая связь). КМК наряду с разностями между исходными и оцененными значениями «зависимой» переменной (ошибки е) - основные показатели качества модели множественной регрессии.

Кроме коэффициента множественной корреляции может быть вычислен коэффициент множественной детерминации (КМД), который равен коэффициенту множественной корреляции в квадрате или: КМД = R2. Он показывает ту часть дисперсии «зависимой» переменной, которая обусловлена влиянием «независимых» переменных.

Например:

Основной показатель МРА – коэффициент множественной корреляции (R), который, подобно парному коэффициенту корреляции Пирсона, является мерой линейной взаимосвязи одной переменной с совокупностью других переменных. КМК «зависимой» переменной с набором «независимых» переменных, как и КМД, принимает только положительные значения, изменяясь в пределах от 0 до 1. Статистическая значимость КМК определяется по критерию F-Фишера для соответствующих степеней свободы.

Таким образом, основными целями МРА являются:

1. Определение того, в какой мере «зависимая» переменная связана с совокупностью «независимых» переменных, какова статистическая значимость этой взаимосвязи. Показатель - коэффициент множественной корреляции (КМК) и его статистическая значимость по критерию F-Фишера.

2. Определение существенности вклада каждой «независимой» переменной в оценку «зависимой» переменной, отсев несущественных для предсказания «независимых» переменных. Показатели - регрессионные коэффициенты bi, их статистическая значимость по критерию t-Стьюдента.

3. Анализ точности предсказания и вероятных ошибок оценки «зависимой» переменной. Показатель - квадрат КМК, интерпретируемый как доля дисперсии «зависимой» переменной, объясняемая совокупностью «независимых» переменных. Вероятные ошибки предсказания анализируются по расхождению (разности) действительных значений «зависимой» переменной и оцененных при помощи модели МРА.

4. Оценка (предсказание) неизвестных значений «зависимой» переменной по известным значениям «независимых» переменных. Осуществляется по вычисленным параметрам множественной регрессии.