Добавил:
Upload Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:
Математические методы.doc
Скачиваний:
39
Добавлен:
30.07.2019
Размер:
7.16 Mб
Скачать

7.4. Множественная регрессия

Взаимовлияния в лесных объектах обусловливают широкое применение множественной регрессии, т. е. регрессионных уравнений с несколькими аргументами.

Если x1, х2, ..., хk - k независимых переменных или факторов, а у - функция (или отклик), то множественное линейное (относительно коэффициентов и независимых переменных) регрессионное уравнение имеет вид:

у=a0+a1х1 + a2x2 + . . . +akxk , (7.32)

где

a0 - свободный член;

a1, a2, …, ak - коэффициенты регрессии.

Модели со многими переменными, нелинейно связанными с откликом у, как правило, приводят заменами (если это возможно) к линейному виду

у=a0+a1z1 + a2z2 + . . . +akzk , (7.33)

где

z1, z2, …, zk – некоторые функции от исходных переменных x1, х2, ..., хk.

Идеи и методы множественной регрессии являются прямым обобщением методов статистического анализа линейных моделей с одной переменной. Но здесь возникают многочисленные трудности при подборе уравнения, определении количества переменных, их оценке и интерпретации полученных результатов. Причины этих трудностей следующие:

  1. набор элементарных функций и их возможные сочетания в уравнении регрессии очень обширны;

  2. аргументы, как правило, коррелированы между собой;

  3. ориентация на физический смысл и сущность изучаемого явления затруднена; даже если парные регрессии у=f(xi) высоко значимы, то влияние взаимодействия факторов может менять не только величину коэффициентов регрессии, но и придавать им знаки, противоречащие представлениям специалиста о характере влияния того или иного фактора на отклик;

  4. с увеличением количества независимых переменных возрастают сложности с соблюдением основных предпосылок регрессионного анализа. Все это приводит к тому, что в задачах множественной регрессии, как нигде больше в статистическом анализе информации, требуются осторожная и вдумчивая оценка результатов чисто статистических процедур и весьма частое внесение корректив, продиктованных пониманием сути исследуемого явления.

Рассмотрение основ теории и вычислительных схем множественной регрессии при числе независимых переменных больше двух требует очень громоздких вычислений и практически невозможно без применения матричной алгебры. Множественная регрессия, особенно при большом числе наблюдений, является исключительно сферой использования ЭВМ, следовательно, в лесном деле при использовании множественных регрессионных моделей основное внимание должно быть уделено интерпретации результатов и оценке адекватности и корректности модели.

В настоящее время есть много программ множественной регрессии на ЭВМ. Порядок практической работы по расчету и оценке уравнений в значительной мере зависит от структуры машинной программы. Ниже на реальном примере показаны основные способы обоснования регрессионных уравнений с многими переменными при работе на ЭВМ.

Данные для использования в ЭВМ могут представляться по-разному. Некоторые программы имеют достаточно широкий набор преобразований, выполняемых (по желанию пользователя) непосредственно машиной для каждой переменной, другие предусматривают только стандартную процедуру преобразования всех переменных по одному типу (логарифмическое, степенное, показательное и пр.). В первом случае поиск наилучшего преобразования возможен на машине, во втором—требуется предварительное приведение модели к линейному виду. То же относится и к нелинейным моделям—соответствующие комбинации независимых переменных (х, х2, х1х22 и др.) следует вводить в компьютер как значения независимых переменных zi.

Возможен и другой путь: на ЭВМ оценивают получаемые стандартным путем уравнения регрессии, имеющие только значимые переменные, которые затем улучшаются путем преобразований.

Уравнения со многими переменными. Выбор и оценка переменных.

Наилучшим является такое уравнение регрессии, которое объясняет возможно максимальную долю изменчивости зависимой переменной у; для этой цели используют величину множественного коэффициента детерминации R2 или величину остаточной дисперсии. Однако большое количество независимых переменных требует значительных затрат при сборе информации и затрудняет содержательную трактовку модели. Поэтому будем считать наилучшим такое уравнение, которое обеспечивает устанавливаемый заранее минимум R2 при возможно меньшем количестве переменных.

Переменные, входящие во множественную модель, имеют, как правило, различную ценность. Во-первых, суждения о том, какие переменные предпочтительнее, могут лежать вне статистических соображений. Простота и точность измерений приобретают большую роль в уравнениях, предназначенных для массового практического использования. Например, если нужно сделать выбор между диаметром на высоте 1,3 м и объемом растущего дерева как независимыми переменными, то в любом случае предпочтение отдают диаметру, который легче и надежнее определяется. Во-вторых, переменные могут быть управляемыми и неуправляемыми. Термин этот понимают в широком смысле: количество вносимых удобрений или интенсивность рубок ухода - переменная управляемая; диаметр деревьев в древостое в определенных пределах тоже управляемая величина, по крайней мере, в смысле возможности измерения деревьев различного диаметра. Напротив, средняя температура воздуха в некотором месяце есть величина неуправляемая. По возможности, предпочтение следует отдавать переменным первого вида, особенно в моделях, предназначенных для управления некоторым процессом или объектом.

В моделях связи, разрабатываемых для природных объектов, в частности для леса, переменные большей частью взаимно коррелированы. Наиболее информативными, т. е. первыми «кандидатами» на включение в регрессионное уравнение при прочих равных условиях, являются переменные, во-первых, наиболее коррелированные с откликом у, а во-вторых, с наименьшим числом других переменных. Соблюдение этих условий позволяет уже на предварительном этапе исключить некоторые переменные.

Приведенное обсуждение позволяет еще раз подчеркнуть, что наилучшее уравнение регрессии нельзя выбрать, ориентируясь только на статистические процедуры.

Ряд методов разработан для отбора переменных и обоснования наилучшего уравнения регрессии с использованием ЭВМ:

  • метод всех регрессий;

  • метод исключения;

  • метод включения;

  • шаговый регрессионный анализ;

  • метод "чистой регрессии";

  • каскадный регрессионный анализ и др.

В машинных программах обычно используют комбинации перечисленных методов. Мы остановимся на трех методах, связанных между собой и в совокупности наиболее целесообразных в практической работе: методе исключения, методе включения и методе всех регрессий.

Метод всех регрессий предполагает вычисление всех возможных по данной программе регрессионных уравнений. В чистом виде он непригоден для практического применения из-за большой трудоемкости и значительных затрат машинного времени. Так, если имеется k неизвестных, то, ограничившись только линейной моделью на двух уровнях (переменная хi включена—переменная хi исключена), можно вычислить и оценить 2k уравнений. Для рассматриваемого ниже обычного примера с семью аргументами требуется 27= 128 уравнений; понятно, что самый простой предварительный анализ позволяет значительно сократить это число. В качестве же вспомогательного средства этот метод полезен, поскольку можно рассчитать несколько наиболее полных (т. е. содержащих все переменные) уравнений, которые затем улучшают методами исключения и включения.

Метод исключений на первой стадии использует наиболее полное уравнение, включающее все переменные. Исключение переменных возможно в трех вариантах:

  1. если переменные некоррелированы (или слабо коррелированы), то их можно оценить по t-критерию с помощью стандартных ошибок; при тех же условиях заключения о силе влияния xi на у можно сделать по -коэффициентам—масштабированным коэффициентам регрессии для нормированных значений;

  2. если переменные упорядочены, то их последовательно исключают и на каждом шаге оценивают величину дополнительной суммы квадратов и значимость частичного F-критерия; переменные, для которых Fф < Fst при заданном уровне значимости, исключают;

  3. если переменные равноправны, то на каждом шаге вычисляют частичный F-критерий для каждой переменной при условии, что дополнительную сумму квадратов, связанную с испытуемой переменной, определяют при наличии в уравнении всех остальных переменных. Наименьшее значение частичного F-критерия сравнивают с табличным при уровне значимости α; если оно меньше, соответствующую переменную исключают, после чего продолжают вычисления.

Метод включения использует процедуру, в некотором смысле обратную методу исключения: независимые переменные включают до тех пор, пока регрессионное уравнение обеспечит желаемую точность. Первой вводят переменную, наиболее коррелированную с откликом. Основой для включения следующей переменной служат частные коэффициенты корреляции между вычисленными по полученному парному уравнению расчетными значениями у и еще не включенными переменными. В первую очередь вводят переменную, для которой значение частного коэффициента корреляции наибольшее. После каждого этапа (очередная переменная) вычисляют множественный коэффициент детерминации R2 и частный F-критерий для переменной, введенной последней. По значению F-критерия оценивают дополнительную сумму квадратов, обусловленную введением последней переменной: переменные вводят до тех пор, пока величина частного критерия станет меньше табличной при заданном уровне значимости. Недостаток метода включения заключается в том, что он не оценивает изменения роли ранее введенных переменных, которая, в силу их обычной коррелированности, может существенно меняться. Этот недостаток преодолен в шаговом регрессионном анализе, являющимся развитием метода включения.