книги из ГПНТБ / Васильев Ф.П. Лекции по методам решения экстремальных задач
.pdf150 |
М И Н И М И З А Ц И Я Ф У Н К Ц И И М НОГИ Х ПЕРЕМЕННЫ Х |
|
[Гл. 2 |
|
Если |
un+ a p n^.U, то принимается |
un+i = un+ a p n. |
Если |
же |
un+ apn giU, то повторяют описанный |
процесс с новым |
набором |
||
из s |
реализаций случайного вектора |
Величины s > l , а > 0 , |
у > 0 |
являются параметрами алгоритма. Вектор рп называют статисти ческим градиентом. Если U = E m, s — m и векторы ^ я вл я ю тся не случайными и совпадают с соответствующими единичными вектора ми в {= ( 0 , . . , 0, 1, 0 , . . , 0), £ =1 , 2 , . . , /п, то описанный алгоритм,
как нетрудно видеть, превращается в разностный аналог градиент ного метода.
2. В описанных вариантах а), б), в) метода случайного пои ка предполагается, что закон распределения случайного вектора £ не зависит от номера итераций. Такой поиск называют случайным поиском без обучения. Алгоритмы случайного поиска без обучения не обладают «способностью» анализировать результаты предыду щих итераций и выделять, направления, более перспективные в смысле убывания минимизируемой функции, и сходятся, вообще го воря, медленно.
Между тем ясно, что от метода случайного поиска можно ожи дать большей эффективности, если на каждой итерации учитывать накопленный опыт поиска минимума на предыдущих итерациях и перестраивать вероятностные свойства поиска так, чтобы направле ния £, более перспективные в смысле убывания функции, станови лись более вероятными. Иначе говоря, желательно иметь алгорит мы случайного поиска, которые обладают способностью к самообу чению и самоусовершенствованию в процессе поиска минимума' в зависимости от конкретных особенностей минимизируемой функ ции. Такой поиск называют случайным поиском с обучением [204].
Обучение алгоритма осуществляют посредством целенаправленного изменения закона распределения случайного вектора £ в зависимо сти от номера итерации и результатов предыдущих итераций таким образом, чтобы «хорошие» направления, по которым функция убы вает, стали более вероятными, а другие направления — менее ве роятными. Таким образом, на различных этапах метода случайного поиска с обучением приходится иметь дело с реализациями случай ных векторов | с различными законами распределения. Имея в ви
ду это обстоятельство, итерационный процесс |
(1) |
удобнее записать |
|
в виде |
|
|
|
ы„+ 1 = ип + |
а„£л, п = 0 , 1 , . . . , |
(2) |
|
подчеркнув зависимость случайного вектора | от п. |
|||
В начале поиска закон |
распределения |
случайного вектора |
|
£=£о выбирают с учетом имеющейся априорной |
информации о |
минимизируемой функции. Если такая информация отсутствует, то поиск обычно начинают от случайного вектора = (|о, ••■, £сГ),
компоненты |о,£= 1, 2 , . . . , пг, которого представляют собой незави симые случайные величины, распределенные равномерно на отрез
§ 12] О методе случайного поиска и некоторые других методах 151
ке [— 1, 1]. Для обучения алгоритма в процессе поиска часто берут
■семейство случайных векторов g = £ (io ), |
зависящих от параметров |
|||||||||||||
(ад1, . . . , |
wm), и при переходе от п-го шага итерации к п+1-му |
|||||||||||||
шагу имеющиеся значения параметров wn заменяют новыми |
зна |
|||||||||||||
чениями шп+1 с учетом результатов предыдущего поиска. |
|
|||||||||||||
Приведем два варианта метода случайного поиска с обучением |
||||||||||||||
для минимизации функции J (и) |
на всем пространстве Ет. |
|
||||||||||||
а) |
Алгоритм |
покоординатного |
обучения [204]. Пусть |
имее |
||||||||||
■семейство случайных векторов £= |(ад) = |
(g1, . . . , gm), каждая коор |
|||||||||||||
дината g1' которых принимает два |
значения: §г’= 1 |
с вероятностью |
||||||||||||
Рг и V — — 1 |
с вероятностью 1—/Я, |
где |
вероятности |
pi зависят |
от |
|||||||||
.параметра кя следующим образом: |
|
|
|
|
|
|
|
|
|
|||||
|
|
|
0 |
при ад‘ < |
|
— 1, |
|
|
|
|
|
|||
|
Р‘ = |
|
-J- |
(1 + W1) |
при |
|ад‘ |< |
1, |
|
|
(3) |
||||
|
|
|
1 |
при ад‘ >> 1, |
|
|
|
|
|
|
||||
i = 1, 2, . . . |
, in. |
|
|
|
|
|
|
|
|
|
|
|
|
|
Пусть начальное приближение Uq уже выбрано. |
Тогда для опреде |
|||||||||||||
ления следующего приближения щ в формуле (2) |
при п = 0 берет |
|||||||||||||
ся какая-либо реализация |
случайного |
|
вектора |
| о=|(0), соответ |
||||||||||
ствующего значению параметров |
ш= |
шо='(0, |
0, ..., |
0). |
Приближе |
|||||||||
ние и2 определяется по формуле |
(2) |
при п — 1 |
с помощью случай |
|||||||||||
ного вектора gi= g (.0). |
Пусть известны |
приближения щ,, щ, ..., ип |
||||||||||||
и значения |
параметров |
wn- i = ( w ln- U ..., адт „_i) |
при некотором |
|||||||||||
л ^ 1 . Тогда полагаем |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
wln = |
— 6 sign [(/ (un_,) — J |
|
(un_ 2)) (u„_i — ul_2>], |
|
||||||||||
|
i=l, |
2,... , т\ |
п = |
2, 3,... , |
|
|
(4) |
|||||||
где величина (32^0 |
называется |
параметром |
забывания, 6^=0 — |
|||||||||||
параметром |
интенсивности |
обучения, |
|
|
р+ 6 > 0 . |
При |
определении |
|||||||
следующего приближения ип+1 в формуле (2) |
|
берем |
какую-либо |
|||||||||||
реализацию случайного вектора |
|
|
|
|
wn — (wh> •••. w"n)- |
|
||||||||
Из формул (3), (4) |
видно, что если |
переход |
от точки «„_2 к |
точке « „ _ 1 привел к уменьшению значения функции, то вероятность выбора направления ип- Х— и„_2 на следующем шаге увеличивается. И наоборот, если при переходе от ип- 2 к i значение функции увеличится, то вероятность выбора направления ип- 1— ип- 2 на сле дующем шаге уменьшается. Таким образом, формулы (4) осуще ствляют обучение алгоритма. Величина 6 ^ 0 в (4) регулирует ско рость обучения: чем больше 6 > 0 , тем быстрее обучается алгоритм; при 6 = 0, как видно, обучения нет. Величина в формулах (4) регулирует влияние предыдущих значений параметров на обуче ние алгоритма; при |3 = 0 алгоритм «забывает» предыдущие значе
152 МИНИМИЗАЦИЯ ФУНКЦИИ МНОГИХ ПЕРЕМЕННЫХ [Гл. 2
ния шл_|. Для устранения возможного чрезмерного детерминиро вания алгоритма и сохранения способности алгоритма к достаточно'
быстрому обучению на параметры w\ |
накладываются ограничения. |
|
и при нарушении этих ограничений |
Wn заменяют |
|
ся ближайшим из чисел Ci или— с,-, t |
= l , 2 , т. |
Величины р, б, |
ci являются параметрами алгоритма.
Вместо формул (4), посредством которых производится обу
чение алгоритма, часто пользуются другими формулами [204]: |
|
Щ. = Pa'n-i — 8 (J (tin—i) — (J (Un-a)) (Un-1 — Un-2), |
|
i = 1, 2, . . . , m\ n = 2, 3 ........... |
(5) |
Описанный алгоритм покоординатного обучения имеет тот не достаток, что поиск и обучение происходят лишь по одному из 2т направлений £ = (|‘, . . . , £т ), где либо £’ = 1 , либо £* = — 1. Отсутст вие «промежуточных» направлений делает покоординатное обуче ние немобильным в областях с медленно изменяющимися направ лениями спуска. От этого недостатка свободен следующий алго ритм.
б) Алгоритм непрерывного самообучения [204]. Пусть имее
ся |
семейство |
случайных |
векторов |
| = |
|(m) = |
^ w ■, где |
|
(до1, . . . , wm) — параметры обучения, |
|
|
I Г) + w1 |
||
ш = |
т]= |
(rj1, . . . , |
т)т ) — слу |
чайный вектор, координаты rf которого представляют собой неза висимые случайные величины, распределенные равномерно на отрезке [ - U ] . Поиск начинается с рассмотрения случайных векторов £о = £(0), £i = £(0), реализации которых используются при определении приближений u0, ut по формулам (2). Обучение алгоритма при 2 призводится так же, как в алгоритме поко ординатного обучения, с помощью формул (4) или (5). При боль
ших значениях |
|ш„| влияние случайной величины т} уменьшается' |
и направление |
£п = £(до„) становится более детерминированным и |
близким к направлению шп. Во избежание излишней детермини
рованности метода |
на параметры wn = (wln, . . . , w |
накладыва |
ются ограничения |
|a>n | ^ c = const, и при нарушении |
этих огра- |
„ |
wn |
|
ничении wn заменяется на ------- с. |
|
|
|
\w„\ |
|
Более подробные рассмотрения различных вариантов метода случайного поиска, их сравнительные характеристики, вычисли тельные аспекты метода случайного поиска см. в работах [79],. [204].
3. Приведенные алгоритмы случайного поиска с обучение показывают, что процесс обучения в ходе поиска сопровождается уменьшением фактора случайности и увеличением степени детер минированности алгоритма поиска минимума, направляя поиск.
§ Щ |
О методе случайного поиска и некоторые других методах |
153 |
преимущественно по направлениям убывания функции. В |
то ж е' |
|
время |
наличие случайного фактора в выборе направления |
дает |
возможность алгоритму «переучиваться», если свойства функции в районе поиска изменились или предыдущее обучение было не точным. Случайный поиск с обучением в некотором смысле зани мает промежуточное положение между случайным поиском без обучения и детерминированными методами поиска минимума из предыдущих параграфов. Разумеется, и в методах предыдущих параграфов можно обнаружить в том или ином виде элементы самообучения алгоритма, однако наличие случайного фактора в алгоритме делает метод случайного поиска более гибким и поэто му более приспособленным к поиску минимума многоэкстремаль ных функций, т. е. функций со многими глобальными и локальны ми минимумами в рассматриваемой области.
Следует сказать, что задача отыскания глобального миниму ма многоэкстремальных функций существенно более трудна, и ме тоды решения таких задач в настоящее время разработаны недо статочно. Для изучения поведения многоэкстремальных функций и
поиска их глобального минимума наряду с методом |
случайного |
||
поиска [204] может быть |
использован также |
овражный метод |
|
[67], [211]. Для функций, |
удовлетворяющих |
условию |
Липшица, |
здесь можно предложить метод, обобщающий метод ломаных из главы 1, однако его реализация с возрастанием размерности про странства весьма усложняется [85]. Другие методы минимизации многоэкстремальных функций изложены в работах [103, 174, 214].
4.Весьма усложняет решение задачи минимизации функц
многих переменных наличие помех, когда на значения функции J (и) в каждой точке и накладываются случайные ошибки. В этих случаях можно использовать метод стохастической аппроксимации
([45, 79, 230] и др.). Одним из вариантов этого метода является процедура Кифера — Вольфовица, краткое описание которой бы ло дано в § 1.12 применительно к задачам минимизации функций одной переменной. Для функций m переменных эта процедура приводит к построению последовательности {«„} по закону
Z О/, + С„е,) — Z (и„ — с„е,)
Un-\-1 —
Сп
i = 1, 2, . . . , m; п = 0, 1, . . . ,
где = ( 0 , . . . , 0, 1, 0 , . . . , 0), z(u) — наблюдаемые в эксперимен те значения функции J (и) в точке и, последовательности {а„}, {с„} удовлетворяют условиям (1.12.2). Различные варианты мето да стохастической аппроксимации, строгое обоснование этого ме тода и различные приложения можно найти в работе [45]. Для минимизации функции при наличии помех могут быть использо ваны также метод случайного поиска [204] и некоторые другие методы [ПО, 214].
М И Н И М И З А Ц И Я Ф У Н К Ц И И М Н О ГИ Х ПЕРЕМЕННЫ Х |
[Га . 2 |
5.В заключение настоящей главы следует сказать, что в да
ной главе мало или даже совсем ие затронуты важные, но пока, к сожалению, малоизученные вопросы устойчивости изложенных методов по отношению к различным погрешностям вычисления и округления, вопросы накопления, анализа и использования инфор мации в процессе счета, критерии точности и окончания счета и другие вопросы, требующие немалого искусства вычислителя при решении задачи минимизации конкретной функции с помощью того или иного метода.
В стороне остались также вопросы, связанные с выбором оп тимальных стратегий поиска минимума на определенных классах функций. Следует сказать, что оптимальные стратегии поиска ми нимума функций многих переменных зачастую имеют довольно' сложное описание, что затрудняет их практическое использование. Заметим, что задача поиска экстремума функций многих перемен ных хорошо укладывается в общую схему исследования операций, разработанную в работе [69]. Это обстоятельство используется
1в работах [215, 216] для построения оптимальных стратегий поис ка экстремума на классе функций, удовлетворяющих обобщенному условию Липшица. Обзор оптимальных методов минимизации на различных классах функций см. в работе [120]. Общий обзор
методов минимизации функций конечного числа переменных и биб
лиографию см. в работах [34, 70, 75, |
79, 81, 82, 84, 86, 87, 96, 97, |
||
109, ПО, 114, 116, 118, |
133, |
135, 138, |
149, 155, 164, 170, 188, 193, |
229, 230, 235, 239, 265] |
и др. |
|
|
Г л а в а 3
Принцип максимума Л. С. Понтрягина
В этой главе рассмотрим задачи оптимального управления процессами, описываемыми системами обыкновенных дифференци альных уравнений. К таким задачам приводят многие прикладные задачи, в частности, задачи механики космического полета ([75, 130, 142, 152, 246] и др.). Выдающуюся роль в развитии теории оптимального управления сыграл академик Л. С. Понтрягин, ко торый сформулировал необходимые условия оптимальности, изве стные под названием принципа максимума [195]. Этот фундамен тальный результат составил математическую основу теории опти мального управления, послужил мощным толчком как в развитии современной теории экстремальных задач, так и в создании чис ленных методов решения таких задач.
§ 1. ПОСТАНОВКА ЗАДАЧИ ОПТИМАЛЬНОГО УПРАВЛЕНИЯ
Сначала остановимся на некоторых конкретных задачах. Как известно ([75], стр. 129), при определенных условиях движение центра масс космического аппарата и расход массы описываются следующей системой дифференциальных уравнений:
r = v, |
v = g ~ Ь |
G = — gq, 0 < f < 7 \ |
(1) |
|
О |
|
|
где t — время, |
r= r{t) —(гь г2, |
г3) — радиус-вектор центра |
масс |
аппарата, v = v ( t) = (vь v2, v3) — скорость центра масс, G = G (t) —
текущий |
вес |
аппарата, |
g |
— коэффициент |
пропорциональности |
||||||||
между |
массой |
и весом, |
P —P(t) — (pь |
р2, р3) |
— вектор |
тяги |
дви |
||||||
гателя, |
|
q — q(t) |
— |
массовый |
расход |
рабочего |
вещества, |
||||||
F = F (r , |
t) — (Fu F 2, |
F 3) |
— вектор ускорения |
от гравитационных |
|||||||||
сил. Предположим, что фазовые координаты r(t), v(t), |
G(t) |
ап |
|||||||||||
парата в начальный момент ^ = 0 известны: |
|
|
|
|
|||||||||
|
|
|
г (0) = г0, |
v (0) = |
v0, |
G(0) = |
G0. |
|
(2) |
||||
Величины |
q = q { t ) , |
P — P (t) |
являются управлением, и, задавая их |
||||||||||
по-разному, можно получить различные фазовые траектории |
(ре |
||||||||||||
шения) |
задачи |
(1), |
|
(2). |
Конструктивные |
возможности |
аппарата, |
ограниченность ресурсов рабочего вещества накладывают на уп равления ограничения, например, следующего вида:
< 7 т 1 п < ? (0 <<7тах> Р т\п < I Р ( 0 I < Р т ах. 0 < t < Т . |
(3) |
155
156 П Р И Н Ц И П МАКСИМУМА Л. С. ПОНТРЯГИНА [Гл. ■?
Кроме того, на фазовые траектории также могут быть наложены: некоторые ограничения, вытекающие, например, из условий того,, чтобы вес аппарата был не меньше определенной величины, или1 траектория полета проходила вне определенных областей космиче
ского пространства |
(областей повышенной радиации) и др. Здесь, |
|
возникают |
задачи |
выбора управлений q{t), P(t) из условий (3) |
так, чтобы |
траектории системы (1), (2) удовлетворяли наложен |
ным ограничениям и, кроме того, некоторый целевой функционал принимал свое минимальное или максимальное значение. Напри мер, возможны задачи [75]: 1) попасть в заданную точку или об ласть космического пространства за минимальное время; 2) в за данный момент попасть в заданную область пространства с задан ной скоростью и с максимальным весом аппарата или с минималь
ной затратой энергии; 3) |
достичь определенной скорости за мини |
|||||||
мальное время и т. п. |
|
|
|
|
|
|
общей |
задачи |
Эти задачи являются |
частным случаем |
более |
||||||
оптимального управления, |
к |
формулировке |
которой |
мы |
перехо |
|||
дим. |
|
|
|
|
|
|
|
|
Пусть некоторый управляемый процесс описывается системой |
||||||||
обыкновенных дифференциальных уравнений |
|
|
||||||
х‘ = / '> \ х2,, |
, |
хп, |
и1, |
и2.......... ur, |
t), tQ<Ct<CT, |
|
||
|
i |
= |
1, |
2, |
. . . , п, |
|
|
|
или в векторной форме: |
|
|
|
|
|
|
|
|
х ~ |
f [х, и, |
t), |
t0 < t< C T , |
|
(4) |
|||
где х = (х1, . . . , хп) — |
величины, |
характеризующие процесс в каж |
дый момент t и называемые фазовыми координатами управляемо
го объекта, |
« = |
(и1......... ит) — |
параметры управления («положе |
|||
ние |
рулей» |
системы), |
определяющие ход |
процесса; функции |
||
f ‘ (x, |
и, t) |
( i = l , |
2, . . . , |
п), |
описывающие |
внутреннее устройство |
объекта и учитывающие различные внешние факторы, предполага
ются известными. |
|
|
|
|
|
|
|
||
|
Для |
того чтобы ход управляемого |
процесса |
(4) был |
опреде |
||||
лен |
на некотором |
отрезке |
прежде всего необходимо за |
||||||
дать |
параметры управления |
и = ( и и2, . . . , |
иг), |
например, как |
|||||
функции |
времени |
u = u {t) = |
(ul (t) , . . . , |
ur(t)), |
t ^ t s ^ T . |
Будем |
|||
предполагать, что |
параметры |
управления и |
в |
каждый момент t |
принадлежат некоторой области управлений V(t), которая может быть любым множеством некоторого r-мерного евклидова прост
ранства |
Ег (в частности, может быть V (t)= E r). Управление |
|||
u = u(t) |
назовем |
допустимым, если его |
координаты |
uf (<) |
(7 = 1 , 2 |
, . . . , г) явлются кусочно-непрерывными [или ограниченны |
|||
ми измеримыми] |
функциями и u(t)^ .V (t) |
при |
[почти |
§ 1] |
Постановка |
задачи оптимального управления |
|
157 |
|
всюду]. Множество всех допустимых управлений |
обозначим |
че |
|||
рез U. |
|
|
u (t)^ U , |
|
|
Возьмем |
некоторое |
управление |
и в |
(4) |
|
положим u = u {t): |
|
|
|
|
|
|
x = f(x , u{t), t), |
t0 < t < T . |
|
(5> |
Под решением этого уравнения будем понимать непрерывное ре шение интегрального уравнения
|
X(0 = |
| / (х (т), и (т), x)dx + x (/„). |
(6), |
|||
|
|
|
и |
|
|
|
Будем |
предполагать, что |
функции |
р {х , и, t) |
определены и; |
||
непрерывны |
вместе |
со |
своими |
частными |
производными fxi (х, и , t) |
|
(i, j = 1, . . . |
, п), |
где x e £ „ , |
u ( t) e V ( t) , t0^ t ^ T . |
При этих ус |
ловиях может быть доказано существование и единственность ре
шения уравнения |
(5) с |
заданными начальными условиями |
x (t0) t |
||||||
определенное на |
некотором |
отрезке |
|
to < T i^ T |
[194, |
||||
254]. В дальнейшем будем рассматривать только те |
допустимые |
||||||||
управления |
u(t), |
для которых решение уравнения |
(5)’ существует |
||||||
на всем отрезке |
|
|
|
|
|
|
|
|
|
Построенное в определенном выше смысле решение уравне |
|||||||||
ния (5) с начальным условием |
х(£0) будем называть решением, |
||||||||
или траекторией, |
уравнения |
(5), соответствующим |
допустимому |
||||||
управлению |
u = u (t )^ U |
и начальному |
условию |
x(t0) и будем |
|||||
обозначать |
через x ( t) = x ( t, и) |
t o ^ t^ T . |
Точку x(tQ) |
будем назы |
|||||
вать левым концом траектории, |
точку х(Т) — правым концом |
тра |
|||||||
ектории x (t,u ). |
|
|
|
|
|
|
|
|
Теперь перейдем к непосредственной формулировке задачи оп тимального управления. Пусть в пространстве Е п заданы многооб разия S0(t), Si(t) и некоторое множество G (t), и пусть задан функционал
. J ( u ) = jf* ( x ,u ,t ) d t + 0 (x (T )), 1О
где функция /° (х, и, t) определена и непрерывна вместе с частными производными /°у (]' = 1,2, . . . ,п) при (х, u,t)£.G (t) х V (t) X [^0, Т],
Ф (х) — определена и непрерывна при х 6 G (Т) f| S/ (Т ).
Задача оптимального управления заключается в том, чтобы найти такое допустимое управление и = и * (t)^ U , чтобы соответ ствующая ему траектории x — x * (t) — x(d,u*) удовлетворяла усло виям х* (t0)^ S o (t0), x*(T )e= Si(T ), х* (t)^ G (t), и функ ционал J (и) достигал своей точной нижней грани: J (и*) = inf 1(и) —
158 ПРИНЦИП МАКСИМУМА Л. С. ПОНТРЯГИНА [ Гл. 3
= /*; здесь нижняя грань берется по всем u (t)^ U , для которых соот
ветствующая траектория x (t,u ) |
определена при |
и удов |
|
летворяет условиям |
x(t0,u.)<=S0(to), x (T ,u )^ S i(T ), 'x(t,u)<^G(t), |
||
Т. |
|
|
|
Такое управление u*(t) будем |
называть оптимальным управлени |
||
ем, x * ( t ) — x (t,u *), |
t o ^ t ^ T — оптимальной траекторией, |
а пару, |
(и* (t), х* (t)), t o ^ t ^ T |
— оптимальным решением рассматриваемой |
|||||
задачи. Заметим, что задача отыскания максимума J (и) легко сво |
||||||
дится к сформулированной задаче, |
если заметить, что |
sup/(u) = |
||||
= — inf (— / («)). |
|
|
|
|
|
|
Мы часто будем пользоваться следующей более краткой фор |
||||||
мулировкой задачи оптимального |
управления: |
найти |
минимум |
|||
-функционала |
|
|
|
|
|
|
|
J(u ) = j f 0(x ,u ,t)d t + O (x(T )) |
|
(7) |
|||
лри условиях |
|
|
|
|
|
|
|
x — f{x,u,t), |
t0<t<CT, |
|
(8) |
||
* ( g |
6 S0 (tQ), |
X (Т) 6 S , (T), |
X (t) е G (0, |
|
(9) |
|
u = u(t)eusz{u{t):u{t)ev(t), |
t0< t < T ) |
( 10) |
||||
(подразумевая, конечно,'что u(t) |
берется |
из класса |
кусочно-не- |
|||
лрерывных или ограниченных измеримых функций). |
|
|||||
Множество G (t) называют ограничением на фазовые коорди |
||||||
наты х = ( а-1, |
...,хп) или просто фазовым ограничением. Может слу |
|||||
читься, что |
G ( t ) = E n |
при всех £е[/0, Л. тогда |
задача (7) — (10) |
•называется задачей оптимального управления без ограничений на
■фазовые координаты и |
вэтом случае условие х (t) е G (t), |
в (9) не пишется. Если |
же G (t)s £ E n, то задачу (7) — (10) называ |
ют задачей оптимального управления с ограничениями на фазовые координаты.
Далее, многообразие S0(t) [или |
Si(Q ] может |
не зависеть от |
|||||||
времени и состоять из одной точки, |
тогда говорят, что в задаче |
||||||||
(7) — (10) левый |
[или |
соответственно |
правый] |
конец закреплен; |
|||||
•если же S0(t) [или |
|
|
совпадает со всем простран |
||||||
ством |
Е п, то говорят, |
что левый [или соответственно правый] ко |
|||||||
нец свободный и в этом |
случае условие A(^0) e 5 0(^o)[^(7’) e S x ( r ) ] |
||||||||
в (9) |
не пишут; наконец, |
если S 0(f)[Si(f)], |
|
|
представляют |
||||
■собой |
некоторую |
гиперповерхность |
или |
кривую |
в |
Еп, то |
левый |
||
[правый] конец называется подвижным. |
t0 и Т в |
|
|
||||||
В |
задаче (7) — (10) |
моменты времени |
общем |
случае |
могут быть неизвестны, тогда они зависят от управления и подле ж ат определению. В частности, если /°=1, Ф (а) = 0 , т о / ( « ) =
S 2) |
Формулировка принципа максимума |
Л. |
С. |
Понтрягина |
153= |
||||||
= Т— 10, |
и задачу (7) — (10) |
в этом |
случае называют задачей бы |
||||||||
стродействия. Если же в |
задаче (7) — (10) |
моменты t0, Т извест |
|||||||||
ны, то задачу |
(7) — (10) |
называют |
задачей |
оптимального управ |
|||||||
ления с закрепленным временем. |
|
|
|
|
|
|
|||||
Если |
p {x ,u ',t)= fi(x ,u ) |
(j— 0, |
1, |
п) |
и |
множества |
S 0(O>- |
||||
Si(t), G(t) |
не |
зависят от |
t, |
то задачу |
(7) — (10) |
называют |
авто |
||||
номной. |
|
|
|
|
|
|
|
|
|
|
|
Наряду |
со |
сформулированной |
выше задачей |
в теории |
опти |
мального управления рассматриваются задачи с запаздыванием, с
параметрами, с |
изопериметрическими |
условиями, |
с |
дискретным: |
||||||||||
временем и т. д. |
([5, |
8, 21, 24, 26, 27, 34, 48, |
59— 61, 75, |
80, 100, |
101, |
|||||||||
115, |
123, |
139— 142, |
157, |
160, |
161, |
171, |
195, |
205, |
206, |
228, |
232, |
234,. |
||
236, 238, |
259] и др.; обзор работ см. в [60], [140]). |
|
|
|
|
|
||||||||
|
Упражнения. |
1. |
Если u = u (t) |
— кусочно-непрерывно, |
то непре |
|||||||||
рывное решение уравнения |
(6) кусочно-дифференцируемо и в точ |
|||||||||||||
ках |
непрерывности |
x(t) |
удовлетворяет |
уравнению |
(5). |
Доказать- |
||||||||
|
2. |
Доказать, что в случае ограниченного измеримого управ |
ния непрерывное решение уравнения (6) абсолютно непрерывно и почти всюду удовлетворяет уравнению (5). -
§2. ФОРМУЛИРОВКА ПРИНЦИПА МАКСИМУМА Л. С. ПОНТРЯГИНА
Рассмотрим |
задачу |
оптимального |
управления |
(1.7— 10) |
при |
|||||
V{t) — V, G ( t ) = E n, t o ^ t ^ T . |
Будем |
предполагать, |
что |
либо |
||||||
S j( t ) = E n, либо |
Sx(0 = |
{C M ) |
:h i( x ,t ) = Q ,' i= l, |
2, |
..., |
п ^ п } , |
где- |
|||
функции hi(x,t) |
непрерывно дифференцируемы |
по |
(x ,t)^ E n'X |
|||||||
Х[*о, Т] и система векторов |
|
|
|
|
|
|
|
|||
Г dht |
|
dhi |
’ |
dh[ |
dll; ) ( j = 1, 2, . . . |
,rtj) |
|
|
||
\И х*’ |
a F ’ |
дхП ’ ~аГ/ |
|
|
|
|
|
|||
линейно независима |
при всех |
(х, t) 6 Si. (t), причем |
в |
случае закреп |
||||||
ленного правого |
конца /г; (х, |
t) = х ‘ — х\ ( £ = 1 , 2 , . . . |
, пх = и). |
|
||||||
Аналогично, пусть либо S0 (£) = £„, либо |
|
|
|
|
||||||
S0{t)= {(x ,t):g i(x ,t) |
= 0, £ = |
1, 2, . . . ,/?0 < п }, |
|
где функции gi (х, t) непрерывно-дифференцируемы по (х, t) £ ЕпX [£0, 7]
и система векторов Х - ^ - , •. •, J ! ii- |
dt |
(£ = 1 2 , . . . ,п 0) линей- |
|
1. ох1 |
дхп |
J |
|
но независима при всех (х, £) 6 S0(£), причем в случае закрепленного, |
|||
левого конца g t (х, t) ==хг'— х‘, |
£ = |
1, 2, |
. . . , п0 = п. |
Сначала рассмотрим случай, когда моменты £0. Т закреплены. ДЛЯ формулировки принципа максимума наряду с системой (1.8) рассмотрим следующую систему линейных дифференциаль ных уравнений относительно вспомогательных (дополнительно
вводимых) переменных ф(£) = (Ф1 (£). •••>фп ( 0 ) :