- •Экзаменационные вопросы
- •1 Постановка задачи. Локальные и глобальные экстремумы
- •2 Задача максимизации функции
- •3 Необходимые и достаточные условия локального экстремума. Классический метод нахождения экстремумов функций
- •3.1 Классический метод
- •4 Метод деления отрезка пополам
- •5 Метод золотого сечения
- •5.1 Модификация метода золотого сечения
- •6 Симметричные методы
- •6.1 Постановка задачи об оптимальных методах
- •6.2 Оптимальный пассивный метод для задачи А (метод равномерного перебора)
- •6.3 Оптимальный последовательный метод для задачи А (метод Фибоначчи)
- •7 Метод ломаных
- •7.1 Описание метода ломаных
- •7.2 Сходимость метода ломаных
- •7.3 Определение константы L
- •7.4 Достоинства и недостатки метода ломаных
- •9 Линейные пространства
- •10 Постановка задачи минимизации
- •12 Численные методы безусловной минимизации
- •13 Общая схема градиентого спуска
- •13.1 Градиентые методы с дроблением шага
- •13.2 Метод наискорейшего спуска
- •13.3.1 О сходимости градиентого метода
- •13.4 Методы покоординатного спуска (для отыскания безусловного экстремума)
- •13.4.1 Метод покоординатного спуска без вычисления производных
- •13.4.2 Рекомендации по применению этого метода
- •14 Относительный (условный) экстремум
- •15.1 Метод исключения
- •15.3 Метод Лагранжа
- •17 Обобщенная функция Лагранжа
- •17.1 Обобщеный метод множителей Лагранжа
- •17.2 Единственность вектора Лагранжа для нормального оптимального плана
- •18 Общая задача математического программирования
- •19 Выпуклые множества
- •19.1 Выпуклые функции
- •20 Дифференциальные условия оптимальности в задаче математического программирования
- •21.2 Метод проекции градиента
- •21.3 Проекция точки на гиперплоскость
- •21.4 Проекция точки на аффинное множество
- •21.5 Проекция точки на шар
- •21.6 Проекция точки на замкнутое полупространство
- •21.8 Метод покоординатного спуска для отыскания условного экстремума
- •22 Метод штрафных ф-ий
- •22.1 Метод внешних штрафных функций
- •22.2 Метод барьерных функций
- •22.2.1 Описание метода барьерных функций (для решения задачи 6.1)
- •23 Общая задача ЛП и ее канонические формы
- •23.1.3 Переход к эквивалентой системе неравенств
- •23.1.4 Переход от задачи минимизации к задаче максимизации
- •24 Различные формы записи задачи ЛП
- •24.1 Развернутая форма задачи ЛП
- •24.2 Векторная форма
- •24.3 Матричная форма
- •24.4 План. Опорный план. Оптимальный план
- •25 Выпуклые многогранники
- •26 Геометрическая интерпретация задачи ЛП
- •26.1 Свойства решения задачи ЛП
- •26.2 Графический метод решения задачи ЛП
- •27 Симплексный метод решения задач ЛП
- •27.1 Построение опорных планов
- •27.2 Отыскание оптимального плана. Условия оптимальности
- •27.3 Алгоритм симплексного метода. Симплексная таблица
- •27.3.1 Правила заполнения таблицы
- •27.3.2 Анализ симплексной таблицыx
- •27.3.3 Переход к новому опорному плану
- •27.3.4 Замечание к решению задачи на максимум
- •28 Методы искусcтвенного базиса
- •28.1 Метод больших штрафов
- •28.2 Двухэтапный метод
- •29 Вариация и ее свойства
- •30 Уравнение Эйлера
- •31 Простейшие случаи интегрируемости уравнения Эйлера
12 Численные методы безусловной минимизации
Будем рассматривать задачу f(x) ! min (x 2 X, X тождественно равно En) (0)
Для поиска экстремума можно не использовать необходимые условия. Экстремумы можно находить по-иному. Если найти способ пошагового определения точек x1; x2; . . . ; xn в которых значения целевой ф-и f(x) образуют убывающую сходящуюся последовательность, то можно надеятся, что тем самым удасться найти минимум ф-и, не прибегая к необходимым условиям. Такие способы называют прямыми методами решения задач оптимизации. Последовательности точек x0; x1; x2; :::; xn, удовлетворяющих условию
f(x0) > f(x1) > . . . > f(xn) (1)
называют релаксационными, а методы их построения принято называть методами спуска. Различные методы спуска отличаются друг от друга способами выбора направления спуска и длины шага вдоль этого направления. В этих методах точки последовательности x0; x1; x2; :::; xn вычисляются по формуле
xk+1 = xk + kpk (2)
pk некоторая линия спуска, k длина шага вдоль этого направления.
13 Общая схема градиентого спуска
|
|
|
|
|
|
x1 |
|
|
Градиентом скалярной ф-и f(x1; . . . ; xn) векторного аргумента |
|
= |
0x2 |
1 |
в точке xk называется вектор, |
|||
x |
||||||||
|
|
|
|
|
|
::: |
|
|
|
|
|
|
|
BxnC |
|
||
|
|
|
|
|
B |
|
C |
|
|
@f(xk) |
|
|
|
@ |
|
A |
|
имеющий координаты |
|
i = 1; 2; ::; n и обозначается как f0(xk) или grad f(xk). |
||||||
@xi |
Известно, что градиент скалярной ф-и f(x) в некоторой точке xk направлен в сторону наискорейшего возрастания ф-и и ортогонален линии уровня (поверхности постоянного значения) ф-и f(x), проходящей через точку xk. Вектор, противоположный градиенту и называемый антиградиентом направлен в сторону наискорейшего убывания ф-и f(x). Выбирая в кач-ве направления спуска pk в формуле (2) антиградиент ф-и f(x) в точке xk приходим к итерационному процессу вида
xk+1 = xk kf0(xk) (3)
k > 0 k = 1; 2; ::: - шаг. В координатной форме этот процесс записывается следующим образом
i |
i |
k |
@f(xk) |
|
xk+1 |
= xk |
|
i = 1; 2; :::; n (4) |
|
@xi |
Все итерационные процессы, в которых направление движения на каждом шаге совпадает с антиградиентом (градиентом) называются градиентыми методами. Градиентые методы отличаются друг от друга способом выбора шага k.
13.1Градиентые методы с дроблением шага
Достаточно малый шаг обеспечивает убывание ф-и
f(xk kf0(xk)) < f(xk) (5)
но может привести к неприемлимо большому кол-ву итераций, необходимых для достижения точки минимума. С другой стороны, большой шаг может привести к невыполнению условия (5).
В методе градиентого спуска с дроблением шага величина k выбирается так, чтобы было выполнено следующее неравенство:
f(xk kf0(xk)) f(xk) 6 " kjjf0(xk)jj2 (6)
" - произвольно выбранная постоянная, одна и таже для всех итераций.
Процесс (3) с выбором шага, удовлетворяющему неравенству (6) протекает следующим образом: Выбираем > 0, одно и тоже для всех итераций на k-той итерации проверяем выполнение неравенства
(6) при k = , если оно выполнено, то и далее полагаем k = , и переходим к следующей итерации. Если условие (6) не выполняется, то шаг k дробим до тех пор пока не выполнится неравенство (6) (шаг делят пополам). На практике итерации (3) продолжают до тех пор, пока не выполнится некоторый критерий окончания счета, при этом часто используют следующие критерии
22