Добавил:
Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:
mo_ekzamen.docx
Скачиваний:
0
Добавлен:
25.02.2024
Размер:
5.82 Mб
Скачать

1. Математическая постановка задачи оптимизации.

В общем виде математическую задачу оптимизации можно сформулировать следующим образом: минимизировать (максимизировать) целевую функцию с учетом ограничений на управляемые переменные. Под минимизацией (максимизацией) функции n переменных f(x) = (x1 ,.., xn) на заданном множестве U n–мерного векторного пространства Еn понимается определение хотя бы 10 одной из точек минимума (максимума) этой функции на множестве U, а также, если это необходимо, и минимального (максимального) на множестве U значения f(x). При записи математических задач оптимизации в общем виде обычно используется следующая символика: f(x)  min (max), (1.1) хU где f(x) – целевая функция; U – допустимое множество, заданное ограничениями на управляемые переменные.

2.Понятие о численных методах оптимизации. Прямые методы. Методы поиска нулевого, первого и второго порядков. Пассивные и активные (последовательные) методы поиска.

Для решения задач безусловной оптимизации используются численные методы поиска экстремума и методы поиска с помощью производных. Их можно разделить на следующие методы

1.Прямые методы поиска или методы нулевого порядка это методы, в которых при поиске экстремума используется информация только о самой функции и не используется информация о ее производных. Плюсом таких методов является возможность оптимизации функций, аналитическое представление которых неизвестно, т.е. эти функции определены только алгоритмически. 2. Методы первого порядка при поиске решения используют не только информацию о самой функции, но и о её производных первого порядка. К таким методам относятся различные градиентные алгоритмы. 3. Методы второго порядка при поиске решения используют информацию о самой функции и о её производных первого и второго порядка. Сюда относятся метод Ньютона и его модификации

1.1 Метод оптимизации называется пассивным, когда все точки i x , i = 1, N, вычислений характеристик задачи (в данном случае значений целевой функции) выбираются одновременно до начала вычислений. Если N четное, т.е. , N = 2l, l =1,2," то наилучшее (в смысле максимального уменьшения длины отрезка локализации) размещение точек i x , i = 1, N, получается разбиением их на равноотстоящие ε-пары

1.2 Метод оптимизации называется активным, если точки i x , i = 1, N, вычислений характеристик задачи (в данном случае значений целевой функции) выбираются последовательно, с учетом информации, полученной на предыдущих шагах. Для активных (последовательных) методов поиска принято указывать в используемых обозначениях номер итерации с помощью надстрочного индекса в круглых скобках.

3. Конечношаговые и бесконечношаговые методы поиска. Сходимость методов. Условия останова методов поиска.

Среди методов минимизации можно условно выделить конечношаговые и бесконечношаговые методы. Конечношаговыми методами называются методы, гарантирующие отыскание решения задачи за конечное число шагов (например, симплекс-метод). Бесконечношаговые методы генерируют последовательность точек, при этом достижение решения обеспечивается в предел

3.1 Важной характеристикой итерационных процессов является сходимость, то есть построенная тем или иным численным методом оптимизации последовательность точек k x должна сходиться к своему предельному значению. Определение 2.3.1. Итерационный процесс сходится, если последовательность точек xk сходится к решению задачи, то есть xk →x* при k→∞ , где x* - решение оптимизационной задачи (2.2.1). В случае, если точка минимума не единственна, под сходимостью метода понимают сходимость последовательности точек xk к множеству X* точек минимума функции f** .

Соседние файлы в предмете Методы оптимизации