- •О.К. Мурга
- •Оглавление
- •1. Методы одномерной оптимизации 6
- •2. Методы безусловной оптимизации 13
- •3. Методы оптимизации при наличии ограничений 35
- •4. Приближённое решение задачи оптимального управления 53
- •Введение
- •1. Методы одномерной оптимизации
- •1.1. Методы перебора
- •1.1.1. Метод равномерного поиска
- •1.1.2. Метод поразрядного поиска
- •1.2. Методы исключения отрезков
- •1.2.1. Метод дихотомии
- •1.2.2. Метод золотого сечения
- •1.3. Сравнительный анализ методов одномерного поиска
- •1.4. Порядок выполнения лабораторной работы
- •1.5. Задания для лабораторной работы.
- •2. Методы безусловной оптимизации
- •2.1. Прямые методы безусловной оптимизации
- •2.1.1. Поиск по правильному симплексу
- •2.1.2. Поиск по деформируемому многограннику
- •Влияние параметров алгоритма на эффективность поиска
- •2.1.3. Типовой пример.
- •2.1.4. Порядок выполнения лабораторной работы
- •2.1.5. Задания для лабораторной работы
- •2.2 Методы покоординатного спуска
- •2.2.1 Метод циклического покоординатного спуска
- •2.2.2. Метод Зейделя.
- •2.2.3. Метод Хука-Дживса
- •2.2.4. Метод Пауэлла.
- •2.2.5. Типовые примеры
- •2.2.6. Порядок выполнения лабораторной работы
- •2.2.7. Задания для лабораторной работы
- •2.3. Градиентные методы
- •2.3.1. Метод градиентного спуска
- •2.3.2. Метод наискорейшего спуска
- •2.3.3. Типовой пример
- •2.3.4. Порядок выполнения лабораторной работы
- •2.3.5. Задания для лабораторной работы
- •3. Методы оптимизации при наличии ограничений
- •3.1. Методы последовательной безусловной оптимизации
- •3.1.1. Метод штрафных функций
- •3.1.2. Метод барьерных функций
- •3.1.3. Комбинированный метод штрафных функций
- •3.1.4. Типовой пример
- •3.1.5. Задание для лабораторной работы
- •3.2. Метод возможных направлений
- •3.2.1. Постановка задачи выпуклого программирования
- •3.2.2. Описание метода возможных направлений
- •3.2.3. Построение начального приближения
- •3.2.4. Выбор наилучшего подходящего направления
- •3.2.5. Определение длины шага
- •3.2.6. Типовой пример
- •3.2.7. Задания для лабораторной работы
- •3.3. Метод случайного поиска
- •3.3.1. Поиск с возвратом при неудачном шаге
- •3.3.2. Алгоритм наилучшей пробы
- •3.3.3. Алгоритм статистичекого градиента
- •3.3.4. Порядок выполнения работы
- •3.3.5. Задания для лабораторной работы
- •4. Приближённое решение задачи оптимального управления
- •4.1. Постановка задачи оптимального управления
- •4.2. Градиентный метод решения задачи оптимального управления
- •4.2.1. Описание градиентного метода в функциональном пространстве.
- •4.2.2. Алгоритм метода.
- •4.2.3. Порядок выполнения лабораторной работы.
- •4.2.4. Задания для лабораторной работы.
- •Список литературы
2.3.4. Порядок выполнения лабораторной работы
Кратко описать изучаемые градиентные методы.
Дать геометрическую иллюстрацию полученного индивидуального задания и выполнить вручную две итерации по каждому алгоритму.
Выполнить с использованием компьютерного комплекса расчёты полученной задачи по каждому из рассмотренных методов при различных значениях параметров алгоритмов.
Провести исследование эффективности рассматриваемых алгоритмов, сравнивая полученные результаты с точным решением задачи, найденным классическим методом. Дать геометрическую иллюстрацию решения задачи.
Сформулировать вывод о сравнительной эффективности рассмотренных алгоритмов, о влиянии параметров алгоритмов на итерационный процесс решения задачи. Содержание отчета отразить в работе.
2.3.5. Задания для лабораторной работы
1. Минимизировать функцию f(X)=x12+4x224x18x2+5 из начальной точки X0=(1;2).
2. Минимизировать функцию f(X)=4x12+x2216x12x2+17 из нач. точки X0=(0;0).
3. Минимизировать функцию f(X)=x12+4x2210x148x2+169 из нач. точки X0=(0;0).
4. Минимизировать функцию f(X)=4x12+x2240x112x2+136 из нач. точки X0=(0;0).
5. Минимизировать функцию f(X)=x12+4x226x18x2+13 из нач.точки X0=(0;0).
6. Минимизировать функцию f(X)=4x12+x2224x12x2+37 из нач. точки X0=(2;0).
7. Минимизировать функцию f(X)=x12+9x224x118x2+13 из нач. точки X0=(1;0).
8. Минимизировать функцию f(X)=9x12+x2236x12x2+37 из нач. точки X0=(2;0).
3. Методы оптимизации при наличии ограничений
Рассмотрим в общей постановке задачу нелинейного программирования, заключающуюся в отыскании минимума функции многих переменных при заданных ограничениях в виде равенств и неравенств.
Целевую функцию f(X)=f(x1,x2,...,xn) и функции hj(X)=hj(x1,x2,...,xn), j=1,...,m; gs(X)=gs(x1,x2,...,xn), s=1,...,p, задающие ограничения, будем рассматривать как функции, заданные в точках n-мерного евклидова пространства En.
Изучим наиболее употребительные методы решения рассматриваемых задач вида
min{f(X)| X R (3.1)
где R-допустимая область, задаваемая ограничениями типа равенств и неравенств
. (3.2)
В случае гладких выпуклых функций f(X),hj(X),gs(X) поставленная задача (3.1) может быть решена с применением необходимых и достаточных условий, устанавливаемых теоремами Куна-Таккера. Однако для решения большинства практических задач используются приближённые численные методы. Рассмотрим некоторые из них, представляющие две группы методов.
1. Методы, использующие преобразование задачи условной оптимизации в эквивалентную последовательность задач безусловной оптимизации путём введения в рассмотрение вспомогательных функций. Эти методы называют методами последовательной безусловной оптимизации.
2. Методы решения задачи условной оптимизации, основанные на движении из одной допустимой точки, где выполняются все ограничения, к другой допустимой точке с меньшим значением целевой функции. Таким методом является, например, метод возможных направлений.
Основная идея методов первой группы состоит в том, чтобы аппроксимировать исходную задачу условной оптимизации некоторой вспомогательной задачей, решение которой менее сложно. Очевидно, что ограничившись лишь одной вспомогательной задачей, можно получить лишь приближённое решение. Если же использовать надлежащим образом построенную последовательность задач без ограничений, то искомое решение исходной задачи может быть найдено с требуемой точностью как предел соответствующей последовательности приближённых решений.
Методы непосредственного решения задачи условной оптимизации, образующие вторую группу, позволяют построить для целевой функции минимизирующую последовательность допустимых точек, сходящуюся к искомому точному решению поставленной задачи.