- •О.К. Мурга
- •Оглавление
- •1. Методы одномерной оптимизации 6
- •2. Методы безусловной оптимизации 13
- •3. Методы оптимизации при наличии ограничений 35
- •4. Приближённое решение задачи оптимального управления 53
- •Введение
- •1. Методы одномерной оптимизации
- •1.1. Методы перебора
- •1.1.1. Метод равномерного поиска
- •1.1.2. Метод поразрядного поиска
- •1.2. Методы исключения отрезков
- •1.2.1. Метод дихотомии
- •1.2.2. Метод золотого сечения
- •1.3. Сравнительный анализ методов одномерного поиска
- •1.4. Порядок выполнения лабораторной работы
- •1.5. Задания для лабораторной работы.
- •2. Методы безусловной оптимизации
- •2.1. Прямые методы безусловной оптимизации
- •2.1.1. Поиск по правильному симплексу
- •2.1.2. Поиск по деформируемому многограннику
- •Влияние параметров алгоритма на эффективность поиска
- •2.1.3. Типовой пример.
- •2.1.4. Порядок выполнения лабораторной работы
- •2.1.5. Задания для лабораторной работы
- •2.2 Методы покоординатного спуска
- •2.2.1 Метод циклического покоординатного спуска
- •2.2.2. Метод Зейделя.
- •2.2.3. Метод Хука-Дживса
- •2.2.4. Метод Пауэлла.
- •2.2.5. Типовые примеры
- •2.2.6. Порядок выполнения лабораторной работы
- •2.2.7. Задания для лабораторной работы
- •2.3. Градиентные методы
- •2.3.1. Метод градиентного спуска
- •2.3.2. Метод наискорейшего спуска
- •2.3.3. Типовой пример
- •2.3.4. Порядок выполнения лабораторной работы
- •2.3.5. Задания для лабораторной работы
- •3. Методы оптимизации при наличии ограничений
- •3.1. Методы последовательной безусловной оптимизации
- •3.1.1. Метод штрафных функций
- •3.1.2. Метод барьерных функций
- •3.1.3. Комбинированный метод штрафных функций
- •3.1.4. Типовой пример
- •3.1.5. Задание для лабораторной работы
- •3.2. Метод возможных направлений
- •3.2.1. Постановка задачи выпуклого программирования
- •3.2.2. Описание метода возможных направлений
- •3.2.3. Построение начального приближения
- •3.2.4. Выбор наилучшего подходящего направления
- •3.2.5. Определение длины шага
- •3.2.6. Типовой пример
- •3.2.7. Задания для лабораторной работы
- •3.3. Метод случайного поиска
- •3.3.1. Поиск с возвратом при неудачном шаге
- •3.3.2. Алгоритм наилучшей пробы
- •3.3.3. Алгоритм статистичекого градиента
- •3.3.4. Порядок выполнения работы
- •3.3.5. Задания для лабораторной работы
- •4. Приближённое решение задачи оптимального управления
- •4.1. Постановка задачи оптимального управления
- •4.2. Градиентный метод решения задачи оптимального управления
- •4.2.1. Описание градиентного метода в функциональном пространстве.
- •4.2.2. Алгоритм метода.
- •4.2.3. Порядок выполнения лабораторной работы.
- •4.2.4. Задания для лабораторной работы.
- •Список литературы
3.3.2. Алгоритм наилучшей пробы
Этот алгоритм отличается от предыдущего тем, что на каждой итерации с помощью датчика случайных чисел формируется некоторое заданное количество s реализаций 1,…,sслучайного вектора и вычисляются значения функции f(X) в тех пробных точках
Yj= Xk+ j, j=1,…,s, (3.22)
которые принадлежат допустимой области R. Если все эти точки оказываются вне области R, то пробы повторяются с уменьшенным значением . В качестве очередного (k+1)–го приближения выбирается пробная точка, в которой значение функции оказалось наименьшим. Таким образом, (k+1)-я точка Xk+1 минимизирующей последовательности определяется из соотношения
f(X k+1)=min {f(Yj) | YjR,1js}, (3.23)
т.е. рабочий шаг выполняется в направлении наилучшей пробы. Все остальные операции те же, что и в предыдущем алгоритме.
Величины s1 и 0 являются параметрами данного алгоритма, выбором которых можно улучшить его сходимость.
3.3.3. Алгоритм статистичекого градиента
В этом алгоритме, как и в предыдущем, в начале каждой итерации выбирается s реализаций 1,…,S случайного вектора и определяются пробные точки
Yj= Xk+ j,
где 0 – величина пробного шага. Далее, для всех YjR вычисляются значения функции f(X) и составляются разности f j= f(Xk) f(Yj). Затем формируется новое направление
Pk = ,
где сумма берется только по тем j, 1js для которых YjR и по этому направлению делается шаг величиной .
Если точка X= Xk+Pk, полученная в результате этого шага, принадлежит допустимой области R, то полагают Xk+1=X и переходят к выполнению следующей итерации. Если же XR, то повторяют описанные построения с новым набором из s реализаций случайного вектора . Если все YjR, j=1,…,s то следует повторить пробы с уменьшенной величиной пробного шага .
Построенный таким образом вектор Pk называется статистическим градиентом. Такое название связано с тем, что в случае, когда REn, s=n, j=ej, где ej– единичные координатные векторы, описанный алгоритм превращается в разностный аналог градиентного метода и направление Pk при 0 становится направлением антиградиента f(X) функции в точке Xk.
Величины s1, 0, 0 являются параметрами алгоритма, существенно влияющими на качество итерационной процедуры.
3.3.4. Порядок выполнения работы
Кратко описать рассмотренные варианты метода случайного поиска.
Составить рабочие алгоритмы для каждого из них.
Выполнить с использованием компьютерного комплекса расчеты индивидуальной задачи по каждому из трех алгоритмов при различных значениях их параметров.
Провести сравнительный анализ полученных результатов. Дать графическую иллюстрацию решения задачи по каждому алгоритму.
Сформулировать выводы о влиянии параметров алгоритмов на сходимость метода и о сравнительной эффекттивности изученных алгоритмов. Содержание проделанной работы отразить в отчете.
3.3.5. Задания для лабораторной работы
Решить задачи нелинейного программирования
1. f(X)=x12+x224x12x2+5min; 2.f(X)=x12+x2216x110x2+89min;
g1(X)= x12x2+1 0, g1(X)= 2x12+12x9x2+27 0,
g2(X)= 0,25x12x22+1 0, g2(X)= 5x12+16x2+80 0,
g3(X)= x1 0, g4(X)= x2 0. g3(X)= x1 0, g4(X)= x2 0.
3. f(X)=x12+x2214x14x2+53min; 4. f(X)=x12+9x2210x118x2+34min;
g1(X)= 2x1225x2+125 0, g1(X)=x1x2+5 0,
g2(X)= x12+2x1+4x2+3 0, g2(X)= 0,5x12+x2+4,50,
g3(X)= x1 0, g4(X)= x2 0. g3(X)= x1 0, g4(X)= x2 0.
5. f(X)=x12+4x2210x116x2+41min; 6. f(X)=x12+4x228x116x2+32min;
g1(X)= x12+4x1x2+1 0, g1(X)= 2x12+4x1+x21 0,
g2(X)= x12+4x1+3x23 0, g2(X)= x1x2+10,
g3(X)= x1 0, g4(X)= x2 0. g3(X)= x1 0, g4(X)= x2 0.
7. f(X)=x12+x224x12x2+5min; 8. f(X)=x12+9x2210x136x2+61min;
g1(X)= x1x2+20, g1(X)= x12+4 x14x2+12 0,
g2(X)= x12+x20, g2(X)= 3x12+7x2+270,
g3(X)= x1 0, g4(X)= x2 0. g3(X)= x1 0, g4(X)= x2 0.