Добавил:
Upload Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:
Шпоры по мат анализу.docx
Скачиваний:
2
Добавлен:
21.09.2019
Размер:
727.92 Кб
Скачать

Ответ №27

Допустим, что некоторая теоретическая модель предполагает линейную зависимость одной из характеристик системы от других: y = Σi ki·xi (i – число независимых переменных). Задача заключается в следующем: при фиксируемых параметрах x и измеренных значениях y рассчитать вектор параметров k, удовлетворяющий некоторому критерию оптимальности.

В методе наименьших квадратов этим критерием является минимум суммы квадратов отклонений расчитанных значений y от наблюдаемых (экспериментальных): min Σi (ys,i – yi)². Чтобы найти минимум функции, это выражение надо продифференцировать по параметрам и приравнять нулю (условие минимума). В результате поиск минимума суммы квадратов сводиться в простым операциям с матрицами

Если теоретическая модель представляет собой линейную зависимость от одного параметра (y = a + b·x), то решение выражается в виде простых формул, которые можно рассчитать даже на микрокалькуляторе: Z = nΣxi² - (Σxi)²; a = (ΣyiΣxi² – ΣyixiΣxi) / Z;     Sa² = Sy² Σxi² / Z; b = (nΣyixi – ΣyiΣxi) / Z;     Sb² = Sy² n / Z; Sy² = Σ(ys,i – yi)² / (n – 2) (ys,i – рассчитанное значение, yi – эксперементально измеренное значение)

При расчете погрешностей предполагается, что точность плана экспримента (значений x) значительно превосходит точность измеряемых значений y, погрешность измерения которых подчиняется нормальному распределению.

Программа расчета такой линейной модели приведена ниже.

Пусть задана некоторая (параметрическая) модель вероятностной (регрессионной) зависимости между (объясняемой) переменной y и множеством факторов (объясняющих переменных) x

где   - вектор неизвестных параметров модели

 - случайная ошибка модели.

Пусть также имеются выборочные наблюдения значений указанных переменных. Пусть   - номер наблюдения ( ). Тогда   - значения переменных в  -м наблюдении. Тогда при заданных значениях параметров b можно рассчитать теоретические (модельные) значения объясняемой переменной y:

Тогда можно рассчитать остатки регрессионной модели - разницу между наблюдаемыми значениями объясняемой переменной и теоретическими (модельными, оцененными):

Величина остатков зависит от значений параметров b.

Сущность МНК (обычного, классического) заключается в том, чтобы найти такие параметры b, при которых сумма квадратов остатков будет минимальной:

В общем случае решение этой задачи может осуществляться численными методами оптимизации (минимизации). В этом случае говорят о нелинейном МНК  - нгл. Non-Linear Least Squares). Во многих случаях возможно аналитическое решение. Для решения задачи минимизации необходимо найти стационарные точки функции ESS(b) - продифференцировать функцию   по неизвестным параметрам b, приравнять производные к нулю и решить полученную систему уравнений:

Если случайные ошибки модели имеют нормальное распределение, имеют одинаковую дисперсию и некоррелированы между собой, МНК-оценки параметров совпадают с оценками метода максимального правдоподобия (ММП).

МНК в случае линейной модели

Пусть регрессионная зависимость является линейной:

Пусть y - вектор-столбец наблюдений объясняемой переменной, а X -nxk - матрица наблюдений факторов (строки матрицы - векторы значений факторов в данном наблюдении, по столбцам - вектор значений данного фактора во всех наблюдениях). Матричное представление линейной модели имеет вид:

Тогда вектор оценок объясняемой переменной и вектор остатков регрессии будут равны

соответственно сумма квадратов остатков регрессии будет равна

Дифференцируя эту функцию по вектору параметров и приравняв производные к нулю, получим систему уравнений (в матричной форме)  . Решение этой системы уравнений и дает общую формулу МНК-оценок для линейной модели:

Для аналитических целей оказывается полезным последнее представление этой формулы. Если в регрессионной модели данные центрированы, то в этом представлении первая матрица имеет смысл выборочной ковариационной матрицы факторов, а вторая - вектор ковариаций факторов с зависимой переменной. Если кроме того данные еще и нормированы на СКО (то есть в конечном итоге стандартизированы), то первая матрица имеет смысл выборочной корреляционной матрицы факторов, второй вектор - вектора выборочных корреляций факторов с зависимой переменной.

Немаловажное свойство МНК-оценок для моделей с константой - линия построенной регрессии проходит через центр тяжести выборочных данных, то есть выполняется равенство:

В частности, в крайнем случае, когда единственным регрессором является константа, получаем, что МНК-оценка единственного параметра (собственно константы) равна среднему значению объясняемой переменной. То есть среднее арифметическое, известное своими хорошими свойствами из законов больших чисел, также является МНК-оценкой - удовлетворяет критерию минимума суммы квадратов отклонений от нее.

Пример: простейшая (парная) регрессия

В случае парной линейной регрессии   формулы расчета упрощаются (можно обойтись без матричной алгебры):