- •3.1. Классификация методов восстановления стохастических зависимостей
- •3.2. Параметрические алгоритмы восстановления стохастических зависимостей
- •3.3. Непараметрическая оценка регрессии в задаче восстановления стохастических зависимостей
- •3.3.1. Асимптотические свойства непараметрической оценки регрессии
- •Распишем выражение
- •3.3.2. Оптимизация непараметрической оценки регрессии по виду ядерной функции
- •3.3.3. Оптимизация непараметрической оценки регрессии по коэффициенту размытости
- •3.4. Непараметрические модели коллективного типа в задаче восстановления стохастических зависимостей
- •3.4.1. Непараметрические модели коллективного типа, основанные на учёте оценки эффективности упрощённых аппроксимаций
- •3.4.2. Асимптотические свойства непараметрической модели коллективного типа
- •3.4.3. Оптимизация непараметрических моделей коллективного типа
- •3.4.4. Оптимизация непараметрических моделей коллективного типа по коэффициенту размытости
- •3.5. Нелинейные непараметрические коллективы решающих правил в задаче восстановления стохастических зависимостей
- •3.6. Гибридные модели в задаче восстановления стохастических зависимостей
- •3.7. Синтез и анализ гибридных моделей стохастических зависимостей в условиях наличия их частного описания
- •3.8. Непараметрические гибриды решающих правил в задаче восстановления стохастических зависимостей
- •3.9. Последовательные процедуры формирования решений, основанные на учёте функций невязок
- •3.10. Коллективы решающих правил, основанные на учёте их условий компетентности
- •Литература
- •Дополнительная литература
- •Контрольные вопросы
- •Контрольные упражнения
Глава 3. |
обучающиеся методы восстановления стохастических зависимостей |
Задача аппроксимации стохастических зависимостей в исследовании систем возникает при построении статических моделей их элементов и оценивании показателей эффективности по экспериментальным данным. Для решения подобных задач существует множество методов, основанных на принципах обучения и имитации. В данной главе представлены обучающиеся модели восстановления стохастических зависимостей, использующие различные виды априорной информации: о локальном поведении , о виде зависимости , а также полезную информацию частных решающих правил.
3.1. Классификация методов восстановления стохастических зависимостей
Рассмотрим объект (рис. 3.1) с входом , который может быть вектором , и выходом y – скаляр.
Рис. 3.1. Объект исследования
Существует некоторая неизвестная взаимосвязь между входом и выходом . Необходимо оценить данную взаимосвязь, построив модель .
При восстановлении зависимости
(3.1)
в задачах идентификации статических объектов различают два типа исходной информации:
-
структурные данные , которые отражают априорные представления о виде ;
-
статистические данные , которые содержат сведения о наблюдении .
На рис. 3.2 можно выделить три основных вида структурных данных, представляющих сведения о виде зависимости :
-
область - зависимость существует;
-
область - зависимость однозначна, т.е. каждому соответствует одно значение ;
-
область - известна информация о виде зависимости (3.1) .
Рис. 3.2. Классификация моделей статических объектов
Параметрические алгоритмы применяются в том случае, если кроме обучающей выборки известна информация о виде искомой зависимости, т.е. исследователь знает или предполагает, что зависимость (3.1) может быть представлена в виде некоторого полинома ( - вектор параметров полинома). Тогда задача восстановления стохастической зависимости (3.1) сводится к определению неизвестных коэффициентов полинома.
Непараметрические алгоритмы ориентированы в основном на использование информации, содержащейся в точках обучающей выборки. Важным условием их применения является однозначность восстанавливаемой зависимости (3.1).
Гибридные модели используют сведения как о виде зависимости , так и информацию, содержащуюся в точках выборки . Также возможны ситуации, когда вместо информации о виде зависимости имеется «старая» модель зависимости (3.1) , которую необходимо скорректировать по новым данным , где .
На практике часто встречаются ситуации, когда искомые стохастические зависимости неоднозначны и имеют разрывы не только по своей природе, но и в следствии того, что существующая система контроля состояния объекта не даёт возможности измерять полный набор компонентов вектора входных переменных. Поэтому возникает задача создания подхода, позволяющего расширить круг решаемых задач моделирования. В этом случае используются самообучающиеся алгоритмы, где априорными сведениями является информация о существовании зависимости (3.1).
3.2. Параметрические алгоритмы восстановления стохастических зависимостей
Пусть дана статистически независимых наблюдений случайной величины , распределённых с неизвестной плотностью . Также имеется информация о виде искомой зависимости (3.1), представленная в полиномиальном виде . Необходимо построить параметрическую оценку регрессии , если известно, что оператор связи имеет однозначный характер.
Для простоты последующих выкладок предположим, что зависимость описывается полиномом
.
Задача восстановления стохастической зависимости (3.1) сводится к определению неизвестных коэффициентов полинома (, , ) из условия минимума квадратического критерия (3.2) с помощью метода наименьших квадратов.
Необходимо подобрать коэффициенты полинома таким образом, чтобы сумма квадратов отклонений полинома от экспериментальных точек была минимальна
. (3.2)
Для этого необходимо приравнять к нулю производные критерия (3.2) по , и :
,
,
.
После очевидных преобразований, полученную систему уравнений можно представить в матричном виде
.
Воспользовавшись методом Гаусса приводим матрицу к треугольному виду и находим неизвестные коэффициенты полинома.
В итоге получаем параметрическую оценку регрессии
,
где , , - рассчитанные коэффициенты.