- •О.К. Мурга
- •Оглавление
- •1. Методы одномерной оптимизации 6
- •2. Методы безусловной оптимизации 13
- •3. Методы оптимизации при наличии ограничений 35
- •4. Приближённое решение задачи оптимального управления 53
- •Введение
- •1. Методы одномерной оптимизации
- •1.1. Методы перебора
- •1.1.1. Метод равномерного поиска
- •1.1.2. Метод поразрядного поиска
- •1.2. Методы исключения отрезков
- •1.2.1. Метод дихотомии
- •1.2.2. Метод золотого сечения
- •1.3. Сравнительный анализ методов одномерного поиска
- •1.4. Порядок выполнения лабораторной работы
- •1.5. Задания для лабораторной работы.
- •2. Методы безусловной оптимизации
- •2.1. Прямые методы безусловной оптимизации
- •2.1.1. Поиск по правильному симплексу
- •2.1.2. Поиск по деформируемому многограннику
- •Влияние параметров алгоритма на эффективность поиска
- •2.1.3. Типовой пример.
- •2.1.4. Порядок выполнения лабораторной работы
- •2.1.5. Задания для лабораторной работы
- •2.2 Методы покоординатного спуска
- •2.2.1 Метод циклического покоординатного спуска
- •2.2.2. Метод Зейделя.
- •2.2.3. Метод Хука-Дживса
- •2.2.4. Метод Пауэлла.
- •2.2.5. Типовые примеры
- •2.2.6. Порядок выполнения лабораторной работы
- •2.2.7. Задания для лабораторной работы
- •2.3. Градиентные методы
- •2.3.1. Метод градиентного спуска
- •2.3.2. Метод наискорейшего спуска
- •2.3.3. Типовой пример
- •2.3.4. Порядок выполнения лабораторной работы
- •2.3.5. Задания для лабораторной работы
- •3. Методы оптимизации при наличии ограничений
- •3.1. Методы последовательной безусловной оптимизации
- •3.1.1. Метод штрафных функций
- •3.1.2. Метод барьерных функций
- •3.1.3. Комбинированный метод штрафных функций
- •3.1.4. Типовой пример
- •3.1.5. Задание для лабораторной работы
- •3.2. Метод возможных направлений
- •3.2.1. Постановка задачи выпуклого программирования
- •3.2.2. Описание метода возможных направлений
- •3.2.3. Построение начального приближения
- •3.2.4. Выбор наилучшего подходящего направления
- •3.2.5. Определение длины шага
- •3.2.6. Типовой пример
- •3.2.7. Задания для лабораторной работы
- •3.3. Метод случайного поиска
- •3.3.1. Поиск с возвратом при неудачном шаге
- •3.3.2. Алгоритм наилучшей пробы
- •3.3.3. Алгоритм статистичекого градиента
- •3.3.4. Порядок выполнения работы
- •3.3.5. Задания для лабораторной работы
- •4. Приближённое решение задачи оптимального управления
- •4.1. Постановка задачи оптимального управления
- •4.2. Градиентный метод решения задачи оптимального управления
- •4.2.1. Описание градиентного метода в функциональном пространстве.
- •4.2.2. Алгоритм метода.
- •4.2.3. Порядок выполнения лабораторной работы.
- •4.2.4. Задания для лабораторной работы.
- •Список литературы
3.1. Методы последовательной безусловной оптимизации
3.1.1. Метод штрафных функций
В соответствии с основной идеей исходную задачу (3.1) со смешанными ограничениями сводим к решению последовательности задач поиска безусловного минимума некоторой вспомогательной функции, то есть задачь вида
(3.3)
где P(X,rk) - присоединённая функция, играющая роль штрафа за нарушение ограничений (3.2) исходной задачи (3.1); rk –весовой коэффициент, с помощью которого достигается компромисс между необходимостью удовлетворения ограничений (3.2) и процессом минимизации целевой функции f(X).
Присоединённая функция P(X,rk), называемая штрафной функцией, подбирается так, чтобы при больших k расширенная функция F(X,rk) мало отличалась от f(X) при и быстро возрастала при удалении точки Х от допустимой области R. При этом можно выбрать P(X,rk) так, чтобы расширенная функция F(X,rk) обладала свойствами, позволяющими использовать для решения задач (3.3) достаточно эффективные методы безусловной минимизации.
Итак, при практическом построении штрафн ой функции P(X,rk) необходимо учитывать, что она должна принимать бесконечно малые значения при выполнении ограничений исходной задачи и достаточно большие при их нарушении. Такими свойствами обладает, например, штрафная функция вида
(3.4)
где .
Как нетрудно заметить, функция (3.4) тождественно равна нулю, если , то есть если выполняются все ограничения исходной задачи. Но при нарушении хотя бы одного из ограничений возникает "штраф", величину которого можно сделать сколь угодно большой за счёт выбора параметра rk>0. Поэтому при решении последовательности задач (3.3) требуют выполнения условия при , чем достигается возрастание штрафной функции P(X,rk) при . При этом минимизация расширенной функции F(X,rk) обеспечивает выполнение ограничений исходной задачи со всё большей точностью.
Обычно, если штрафная функция строится в виде (3.4), начальная точка поиска выбирается вне допустимой области R. На каждом k-том этапе определяется точка X*(rk) минимума расширенной функции F(X,rk) при заданном значении параметра rk с помощью одного из методов безусловной минимизации. Полученная точка X*(rk) используется в качестве начальной на следующем этапе, выполняемом при большем значении параметра rk. При непрерывном возрастании rk последовательность точек X*(rk) стремится к точке X*- точному решению исходной задачи (3.1).
В качестве условия окончания поиска можно использовать неравенства
P(X*(rk),rk) , , (3.5)
где параметры точности.
Поскольку элементы последовательности {X*(rk)} приближаются к точке Х* извне допустимой области, рассмотренный метод называют методом внешней точки.
3.1.2. Метод барьерных функций
Этот метод применяется для решения задач условной оптимизации с ограничениями типа неравенств, то есть задач вида
(3.6)
Идея метода заключается в сведении задачи (3.6) к последовательности задач безусловной минимизации
, (3.7)
где присоединенная функция выбирается таким образом, чтобы при больших k она мало отличалась от целевой функции f(X) во внутренних точках , но неограниченно возрастала при приближении точки X к границе области R. Влияние такой функции при больших k состоит в создании "барьера" с крутыми склонами вдоль границы допустимой области. Поэтому они и называются барьерными функциями.
Такими свойствами обладает, например, функция
(3.8)
Она определена и непрерывна внутри области R, то есть на множестве и стремится к бесконечности при приближении к границе этой области R изнутри.
Начальная точка задаётся только внутри области R. На каждом k-ом этапе ищется точка минимума расширенной функции при заданном значении rk с помощью одного из методов безусловной минимизации. Полученная точка используется в качестве начальной на следующем этапе, выполняемом при уменьшающемся значении параметра rk. При последовательность точек стремится к точке условного минимума X*. Барьерные функции как бы препятствуют выходу из множества R, а если решение задачи лежит на границе, то процедура метода приводит к движению изнутри области к границе.
В качестве критерия останова можно использовать те же неравенства (3.5), что и в методе штрафных функций.
Согласно описанной процедре точки лежат внутри допустимой области для каждого rk. Этим объясняется, что метод барьерных функций иногда называют методом внутренней точки.