- •1. Задачи оптимизации
- •1.1. Основные понятия
- •1.2. Постановка задачи оптимизации
- •1.2.1 Задача безусловной оптимизации
- •1.2.2. Задача условной оптимизации
- •1.2.3. Классическая задача на условный экстремум
- •1.2.4. Понятия выпуклого множества и выпуклой функции
- •1.2.5. Выпуклая задача оптимизации
- •1.2.6. Задача математического программирования
- •1.2.7. Задачи выпуклого программирования
- •1.2.8. Задачи линейного и квадратичного программирования
- •1.2.9. Задача дискретной оптимизации
- •1.2.10. Задачи оптимального управления
- •2.Начальные сведения о численных методах оптимизации
- •2.1. Понятие о численных методах оптимизации
- •2.2. Сходимость методов оптимизации
- •2.3. Условия остановки (критерии окончания счета)
- •2.4. Направление убывания и методы спуска
- •2.5. Выбор длины шага из условия минимизации функции вдоль заданного направления
1.2.3. Классическая задача на условный экстремум
Классическая задача на условный экстремум. Это задача (1.1) (или (1.4)) с допустимым множеством X, заданным системой конечного числа уравнений:
.
Обычно эта задача записывается в виде
f(x) min,
gi(x)= 0, i = 1,…,m, (1.9)
т.е. явно указывается не само допустимое множество, а система, его определяющая.
При исследовании задачи (1.9) важную роль играет ее функция Лагранжа, т. е. функция
,
где х Rn, y0 R, y=(y1,…,ym) Rm. Частные производные этой функции по координатам вектора х имеют вид
. (1.10)
Составленный из них вектор обозначается через , т. е.
. (1.11)
Теорему о необходимых условиях локальной оптимальности в задаче (1.9), известная как правило множителей Лагранжа.
Теорема 1.5. Пусть функции f, g1, ..., gm непрерывно дифференцируемы в некоторой окрестности точки х* Rn. Если х* - локальное решение задачи (1.9), то существует число и вектор , не равные нулю одновременно и такие, что
. (1.12)
Если при этом градиенты линейно независимы (условие регулярности), то .
Условие (1.12) с учетом (1.11) означает, что градиенты линейно зависимы. В частности, если т =1, то и коллинеарны.
Фигурирующие в теореме 1.5 числа называются множителями Лагранжа. Любая точка х*, удовлетворяющая при некоторых и , , условию (1.12), а также условию допустимости
gi(x*)= 0, i = l, ..., m, (1.13)
называется стационарной точкой задачи (1.9).
Как и в случае безусловной задачи оптимизации, стационарные точки задачи (1.9) не обязаны быть ее решениями. Здесь также существуют необходимые и достаточные условия оптимальности с привлечением вторых производных. Обозначим через
матрицу вторых производных функции Лагранжа по координатам вектора х.
Теорема 1.6. Пусть функции f, g1, ..., gm дважды дифференцируемы в точке х* Rn и непрерывно дифференцируемы в ее некоторой окрестности, причем градиенты линейно независимы. Если х* - локальное решение задачи (1.9), то
при любых , у*, удовлетворяющих (1.12), и всех h Rn таких, что
, i = 1, …, m. (1.14)
Теорема 1.7. Пусть функции f, g1, ..., gm дважды дифференцируемы в точке х* Rn, удовлетворяющей (1.13). Предположим, что при некоторых и выполняется условие (1.12) и, кроме того,
при всех ненулевых h Rn, удовлетворяющих (1.14). Тогда х* - строгое локальное решение задачи (1.9).
В простейших случаях теоремы 1.5—1.7 позволяют решить задачу в явном виде.
Пример 1.3. Пусть требуется найти локальные решения задачи
,
где а > 0 и b > 0 - заданные числа. Ясно, что указанное в теореме 1.5 условие регулярности здесь выполнено. Выпишем (регулярную) функцию Лагранжа:
.
Поскольку , то система для определения стационарных точек имеет вид:
, .
Без труда проверяется, что эта система имеет три решения:
1) x1 = 0, x2 = 1, y = b/3;
2) x1 = 1, x2 = 0, y = a/3;
3) , , .
Далее, имеем
.
Для указанных решений эта матрица принимает соответственно вид
, , .
Условие (1.14) выглядит здесь следующим образом:
.
Для первых двух решений это означает, что h2 = 0 и h1 = 0 соответственно. Отсюда ясно, что матрицы A1 и А2 удовлетворяют условию, указанному в теореме 1.7 (хотя, заметим, они не являются положительно определенными). Следовательно, точки (0, 1) и (1, 0) - строгие локальные решения исследуемой задачи. Для матрицы A3 заведомо не выполняется условие, указанное в теореме 1.6. Поэтому точка не может быть решением данной задачи. Ясно, однако, что эта точка служит строгим локальным решением задачи максимизации той же функции при тех же ограничениях
Иногда задачу (1.9) удается решить, используя лишь теорему 1.5.