- •О.К. Мурга
- •Оглавление
- •1. Методы одномерной оптимизации 6
- •2. Методы безусловной оптимизации 13
- •3. Методы оптимизации при наличии ограничений 35
- •4. Приближённое решение задачи оптимального управления 53
- •Введение
- •1. Методы одномерной оптимизации
- •1.1. Методы перебора
- •1.1.1. Метод равномерного поиска
- •1.1.2. Метод поразрядного поиска
- •1.2. Методы исключения отрезков
- •1.2.1. Метод дихотомии
- •1.2.2. Метод золотого сечения
- •1.3. Сравнительный анализ методов одномерного поиска
- •1.4. Порядок выполнения лабораторной работы
- •1.5. Задания для лабораторной работы.
- •2. Методы безусловной оптимизации
- •2.1. Прямые методы безусловной оптимизации
- •2.1.1. Поиск по правильному симплексу
- •2.1.2. Поиск по деформируемому многограннику
- •Влияние параметров алгоритма на эффективность поиска
- •2.1.3. Типовой пример.
- •2.1.4. Порядок выполнения лабораторной работы
- •2.1.5. Задания для лабораторной работы
- •2.2 Методы покоординатного спуска
- •2.2.1 Метод циклического покоординатного спуска
- •2.2.2. Метод Зейделя.
- •2.2.3. Метод Хука-Дживса
- •2.2.4. Метод Пауэлла.
- •2.2.5. Типовые примеры
- •2.2.6. Порядок выполнения лабораторной работы
- •2.2.7. Задания для лабораторной работы
- •2.3. Градиентные методы
- •2.3.1. Метод градиентного спуска
- •2.3.2. Метод наискорейшего спуска
- •2.3.3. Типовой пример
- •2.3.4. Порядок выполнения лабораторной работы
- •2.3.5. Задания для лабораторной работы
- •3. Методы оптимизации при наличии ограничений
- •3.1. Методы последовательной безусловной оптимизации
- •3.1.1. Метод штрафных функций
- •3.1.2. Метод барьерных функций
- •3.1.3. Комбинированный метод штрафных функций
- •3.1.4. Типовой пример
- •3.1.5. Задание для лабораторной работы
- •3.2. Метод возможных направлений
- •3.2.1. Постановка задачи выпуклого программирования
- •3.2.2. Описание метода возможных направлений
- •3.2.3. Построение начального приближения
- •3.2.4. Выбор наилучшего подходящего направления
- •3.2.5. Определение длины шага
- •3.2.6. Типовой пример
- •3.2.7. Задания для лабораторной работы
- •3.3. Метод случайного поиска
- •3.3.1. Поиск с возвратом при неудачном шаге
- •3.3.2. Алгоритм наилучшей пробы
- •3.3.3. Алгоритм статистичекого градиента
- •3.3.4. Порядок выполнения работы
- •3.3.5. Задания для лабораторной работы
- •4. Приближённое решение задачи оптимального управления
- •4.1. Постановка задачи оптимального управления
- •4.2. Градиентный метод решения задачи оптимального управления
- •4.2.1. Описание градиентного метода в функциональном пространстве.
- •4.2.2. Алгоритм метода.
- •4.2.3. Порядок выполнения лабораторной работы.
- •4.2.4. Задания для лабораторной работы.
- •Список литературы
3.1.3. Комбинированный метод штрафных функций
Вернемся к рассмотрению задачи условной оптимизации (3.1) со смешанными ограничениями. Данный метод является обобщением методов, изученных в предыдущих пунктах 3.1.1 и 3.1.2. А именно, для учета ограничений типа равенств применяют штрафные функции (как в методе внешней точки), дляограничений типа неравенств – барьерные функции.
Таким образом, в основе комбинированного метода лежит сведение исходной задачи условной минимизации (3.1) к последовательности задач без ограничений вида
,
где присоединенная функция имеет вид
(3.9)
Начальная точка задается внутри допустимой области R, то есть при строгом выполнении ограничений типа неравенств , s=1,...,p. На каждом k-том этапе точка минимума расширенной функции ищется при заданном значении rk с помощью одного из методов безусловной минимизации. Полученная точка используется в качетве начальной на следующем этапе, выполняемом при уменьшающемся значении параметра rk. При последовательность точек стремится к точному решению X* исходной задачи.
3.1.4. Типовой пример
Найти минимум функции f(X)=(x1-2)2+(x2-1)2 при смещанных ограничениях h(X)=x1-2x2+1=0; g(X)=-0,25x12-x22+10.
Воспользуемся комбинированным методом штрафных функций.
Построим расширенную функцию: ;
Минимизацию F(X,r) выполним градиентным методом в соответствии с которым направление спуска выбирается по антиградиенту . Тогда минимизирующая последовательность построится по рекуррентной формуле
, k=0,1,2,...
Для этого на каждом шаге нам понадобятся значения функций:
;
;
Следуя методу градиентного спуска, координаты (k+1)-й точки Xk+1 будут вычисляться так:
; .
В качестве исходной точки выберем X0=(0,5;0,5). Результаты решения последовательности задач при увеличивающемся значении r, начиная с r=1, приведены в таблице
N |
r |
|
|
f(X*(r)) |
h(X*(r)) |
g(X*(r)) |
0 |
1 |
0,500 |
0,500 |
2,500 |
0,500 |
0,680 |
1 |
10 |
0,872 |
0,841 |
1,298 |
0,190 |
0,210 |
2 |
100 |
0,846 |
0,885 |
1,345 |
0,076 |
0,038 |
3 |
1000 |
0,838 |
0,904 |
1,359 |
0,030 |
0,007 |
Точное решение |
0,823 |
0,911 |
1,393 |
0 |
0 |
3.1.5. Задание для лабораторной работы
Решить задачи условной оптимизации со смешанными ограничениями:
Найти минимум функции f(X)=x12+x22-4x1-2x2+5 при ограничениях h(X)=-x1+2x2=1; g(X) = -0,25x12-x221;
Найти минимум функции f(X)=x12+x22-16x1-10x2+89 при ограничениях h(X)=2x12-12x1+9x2-27=0; g(X) = -5x12+16x2+800;
Найти минимум функции f(X)=x12+x22-14x1-4x2+53 при ограничениях h(X)=2x12+25x2 – 125=0; g(X) = -x12+2x1+4x2-30;
Найти минимум функции f(X)=x12+9x22-10x1-18x2+34 при ограничениях h(X)=x1+x2 – 5=0; g(X) = -0,5x12+x2 - 4.50;
Найти минимум функции f(X)=x12+4x22-10x1 -16x2+41 при ограничениях h(X)=x12-4x1+x2 -1=0; g(X)=-x12+4x1+3x2 -30;
Найти минимум функции f(X)=x12+4x22-8x1-16x2+32 при ограничениях h(X)=-x1+x2 -1=0; g(X)=-2x12+4x1+x2-10;
Найти минимум функции f(X)=x12+9x22-10x1-36x2+61 при ограничениях h(X)=x12-4x1+4x2- 12=0; g(X)=-3x12+7x2 + 270;