Добавил:
Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:

книги из ГПНТБ / Васильев Ф.П. Лекции по методам решения экстремальных задач

.pdf
Скачиваний:
15
Добавлен:
25.10.2023
Размер:
14.17 Mб
Скачать

150

М И Н И М И З А Ц И Я Ф У Н К Ц И И М НОГИ Х ПЕРЕМЕННЫ Х

 

[Гл. 2

Если

un+ a p n^.U, то принимается

un+i = un+ a p n.

Если

же

un+ apn giU, то повторяют описанный

процесс с новым

набором

из s

реализаций случайного вектора

Величины s > l , а > 0 ,

у > 0

являются параметрами алгоритма. Вектор рп называют статисти­ ческим градиентом. Если U = E m, s — m и векторы ^ я вл я ю тся не­ случайными и совпадают с соответствующими единичными вектора­ ми в {= ( 0 , . . , 0, 1, 0 , . . , 0), £ =1 , 2 , . . , /п, то описанный алгоритм,

как нетрудно видеть, превращается в разностный аналог градиент­ ного метода.

2. В описанных вариантах а), б), в) метода случайного пои ка предполагается, что закон распределения случайного вектора £ не зависит от номера итераций. Такой поиск называют случайным поиском без обучения. Алгоритмы случайного поиска без обучения не обладают «способностью» анализировать результаты предыду­ щих итераций и выделять, направления, более перспективные в смысле убывания минимизируемой функции, и сходятся, вообще го­ воря, медленно.

Между тем ясно, что от метода случайного поиска можно ожи­ дать большей эффективности, если на каждой итерации учитывать накопленный опыт поиска минимума на предыдущих итерациях и перестраивать вероятностные свойства поиска так, чтобы направле­ ния £, более перспективные в смысле убывания функции, станови­ лись более вероятными. Иначе говоря, желательно иметь алгорит­ мы случайного поиска, которые обладают способностью к самообу­ чению и самоусовершенствованию в процессе поиска минимума' в зависимости от конкретных особенностей минимизируемой функ­ ции. Такой поиск называют случайным поиском с обучением [204].

Обучение алгоритма осуществляют посредством целенаправленного изменения закона распределения случайного вектора £ в зависимо­ сти от номера итерации и результатов предыдущих итераций таким образом, чтобы «хорошие» направления, по которым функция убы­ вает, стали более вероятными, а другие направления — менее ве­ роятными. Таким образом, на различных этапах метода случайного поиска с обучением приходится иметь дело с реализациями случай­ ных векторов | с различными законами распределения. Имея в ви­

ду это обстоятельство, итерационный процесс

(1)

удобнее записать

в виде

 

 

 

ы„+ 1 = ип +

а„£л, п = 0 , 1 , . . . ,

(2)

подчеркнув зависимость случайного вектора | от п.

В начале поиска закон

распределения

случайного вектора

£=£о выбирают с учетом имеющейся априорной

информации о

минимизируемой функции. Если такая информация отсутствует, то поиск обычно начинают от случайного вектора = (|о, ••■, £сГ),

компоненты |о,£= 1, 2 , . . . , пг, которого представляют собой незави­ симые случайные величины, распределенные равномерно на отрез­

§ 12] О методе случайного поиска и некоторые других методах 151

ке [— 1, 1]. Для обучения алгоритма в процессе поиска часто берут

■семейство случайных векторов g = £ (io ),

зависящих от параметров

(ад1, . . . ,

wm), и при переходе от п-го шага итерации к п+1-му

шагу имеющиеся значения параметров wn заменяют новыми

зна­

чениями шп+1 с учетом результатов предыдущего поиска.

 

Приведем два варианта метода случайного поиска с обучением

для минимизации функции J (и)

на всем пространстве Ет.

 

а)

Алгоритм

покоординатного

обучения [204]. Пусть

имее

■семейство случайных векторов £= |(ад) =

(g1, . . . , gm), каждая коор­

дината g1' которых принимает два

значения: §г’= 1

с вероятностью

Рг и V — — 1

с вероятностью 1—/Я,

где

вероятности

pi зависят

от

.параметра кя следующим образом:

 

 

 

 

 

 

 

 

 

 

 

 

0

при ад‘ <

 

— 1,

 

 

 

 

 

 

Р‘ =

 

-J-

(1 + W1)

при

|ад‘ |<

1,

 

 

(3)

 

 

 

1

при ад‘ >> 1,

 

 

 

 

 

 

i = 1, 2, . . .

, in.

 

 

 

 

 

 

 

 

 

 

 

 

 

Пусть начальное приближение Uq уже выбрано.

Тогда для опреде­

ления следующего приближения щ в формуле (2)

при п = 0 берет­

ся какая-либо реализация

случайного

 

вектора

| о=|(0), соответ­

ствующего значению параметров

ш=

шо='(0,

0, ...,

0).

Приближе­

ние и2 определяется по формуле

(2)

при п — 1

с помощью случай­

ного вектора gi= g (.0).

Пусть известны

приближения щ,, щ, ..., ип

и значения

параметров

wn- i = ( w ln- U ..., адт „_i)

при некотором

л ^ 1 . Тогда полагаем

 

 

 

 

 

 

 

 

 

 

 

 

 

wln =

— 6 sign [(/ (un_,) — J

 

(un_ 2)) (u„_i — ul_2>],

 

 

i=l,

2,... , т\

п =

2, 3,... ,

 

 

(4)

где величина (32^0

называется

параметром

забывания, 6^=0 —

параметром

интенсивности

обучения,

 

 

р+ 6 > 0 .

При

определении

следующего приближения ип+1 в формуле (2)

 

берем

какую-либо

реализацию случайного вектора

 

 

 

 

wn — (wh> •••. w"n)-

 

Из формул (3), (4)

видно, что если

переход

от точки «„_2 к

точке « „ _ 1 привел к уменьшению значения функции, то вероятность выбора направления ип- Х— и„_2 на следующем шаге увеличивается. И наоборот, если при переходе от ип- 2 к i значение функции увеличится, то вероятность выбора направления ип- 1ип- 2 на сле­ дующем шаге уменьшается. Таким образом, формулы (4) осуще­ ствляют обучение алгоритма. Величина 6 ^ 0 в (4) регулирует ско­ рость обучения: чем больше 6 > 0 , тем быстрее обучается алгоритм; при 6 = 0, как видно, обучения нет. Величина в формулах (4) регулирует влияние предыдущих значений параметров на обуче­ ние алгоритма; при |3 = 0 алгоритм «забывает» предыдущие значе­

152 МИНИМИЗАЦИЯ ФУНКЦИИ МНОГИХ ПЕРЕМЕННЫХ [Гл. 2

ния шл_|. Для устранения возможного чрезмерного детерминиро­ вания алгоритма и сохранения способности алгоритма к достаточно'

быстрому обучению на параметры w\

накладываются ограничения.

и при нарушении этих ограничений

Wn заменяют­

ся ближайшим из чисел Ci или— с,-, t

= l , 2 , т.

Величины р, б,

ci являются параметрами алгоритма.

Вместо формул (4), посредством которых производится обу­

чение алгоритма, часто пользуются другими формулами [204]:

 

Щ. = Pa'n-i — 8 (J (tin—i) — (J (Un-a)) (Un-1 — Un-2),

 

i = 1, 2, . . . , m\ n = 2, 3 ...........

(5)

Описанный алгоритм покоординатного обучения имеет тот не­ достаток, что поиск и обучение происходят лишь по одному из направлений £ = (|‘, . . . , £т ), где либо £’ = 1 , либо £* = — 1. Отсутст­ вие «промежуточных» направлений делает покоординатное обуче­ ние немобильным в областях с медленно изменяющимися направ­ лениями спуска. От этого недостатка свободен следующий алго­ ритм.

б) Алгоритм непрерывного самообучения [204]. Пусть имее

ся

семейство

случайных

векторов

| =

|(m) =

^ w ■, где

 

(до1, . . . , wm) — параметры обучения,

 

 

I Г) + w1

ш =

т]=

(rj1, . . . ,

т)т ) — слу­

чайный вектор, координаты rf которого представляют собой неза­ висимые случайные величины, распределенные равномерно на отрезке [ - U ] . Поиск начинается с рассмотрения случайных векторов £о = £(0), £i = £(0), реализации которых используются при определении приближений u0, ut по формулам (2). Обучение алгоритма при 2 призводится так же, как в алгоритме поко­ ординатного обучения, с помощью формул (4) или (5). При боль­

ших значениях

|ш„| влияние случайной величины т} уменьшается'

и направление

£п = £(до„) становится более детерминированным и

близким к направлению шп. Во избежание излишней детермини­

рованности метода

на параметры wn = (wln, . . . , w

накладыва­

ются ограничения

|a>n | ^ c = const, и при нарушении

этих огра-

wn

 

ничении wn заменяется на ------- с.

 

 

\w„\

 

Более подробные рассмотрения различных вариантов метода случайного поиска, их сравнительные характеристики, вычисли­ тельные аспекты метода случайного поиска см. в работах [79],. [204].

3. Приведенные алгоритмы случайного поиска с обучение показывают, что процесс обучения в ходе поиска сопровождается уменьшением фактора случайности и увеличением степени детер­ минированности алгоритма поиска минимума, направляя поиск.

§ Щ

О методе случайного поиска и некоторые других методах

153

преимущественно по направлениям убывания функции. В

то ж е'

время

наличие случайного фактора в выборе направления

дает

возможность алгоритму «переучиваться», если свойства функции в районе поиска изменились или предыдущее обучение было не­ точным. Случайный поиск с обучением в некотором смысле зани­ мает промежуточное положение между случайным поиском без обучения и детерминированными методами поиска минимума из предыдущих параграфов. Разумеется, и в методах предыдущих параграфов можно обнаружить в том или ином виде элементы самообучения алгоритма, однако наличие случайного фактора в алгоритме делает метод случайного поиска более гибким и поэто­ му более приспособленным к поиску минимума многоэкстремаль­ ных функций, т. е. функций со многими глобальными и локальны­ ми минимумами в рассматриваемой области.

Следует сказать, что задача отыскания глобального миниму­ ма многоэкстремальных функций существенно более трудна, и ме­ тоды решения таких задач в настоящее время разработаны недо­ статочно. Для изучения поведения многоэкстремальных функций и

поиска их глобального минимума наряду с методом

случайного

поиска [204] может быть

использован также

овражный метод

[67], [211]. Для функций,

удовлетворяющих

условию

Липшица,

здесь можно предложить метод, обобщающий метод ломаных из главы 1, однако его реализация с возрастанием размерности про­ странства весьма усложняется [85]. Другие методы минимизации многоэкстремальных функций изложены в работах [103, 174, 214].

4.Весьма усложняет решение задачи минимизации функц

многих переменных наличие помех, когда на значения функции J (и) в каждой точке и накладываются случайные ошибки. В этих случаях можно использовать метод стохастической аппроксимации

([45, 79, 230] и др.). Одним из вариантов этого метода является процедура Кифера — Вольфовица, краткое описание которой бы­ ло дано в § 1.12 применительно к задачам минимизации функций одной переменной. Для функций m переменных эта процедура приводит к построению последовательности {«„} по закону

Z О/, + С„е,) — Z (и„ — с„е,)

Un-\-1 —

Сп

i = 1, 2, . . . , m; п = 0, 1, . . . ,

где = ( 0 , . . . , 0, 1, 0 , . . . , 0), z(u) — наблюдаемые в эксперимен­ те значения функции J (и) в точке и, последовательности {а„}, {с„} удовлетворяют условиям (1.12.2). Различные варианты мето­ да стохастической аппроксимации, строгое обоснование этого ме­ тода и различные приложения можно найти в работе [45]. Для минимизации функции при наличии помех могут быть использо­ ваны также метод случайного поиска [204] и некоторые другие методы [ПО, 214].

М И Н И М И З А Ц И Я Ф У Н К Ц И И М Н О ГИ Х ПЕРЕМЕННЫ Х

а . 2

5.В заключение настоящей главы следует сказать, что в да

ной главе мало или даже совсем ие затронуты важные, но пока, к сожалению, малоизученные вопросы устойчивости изложенных методов по отношению к различным погрешностям вычисления и округления, вопросы накопления, анализа и использования инфор­ мации в процессе счета, критерии точности и окончания счета и другие вопросы, требующие немалого искусства вычислителя при решении задачи минимизации конкретной функции с помощью того или иного метода.

В стороне остались также вопросы, связанные с выбором оп­ тимальных стратегий поиска минимума на определенных классах функций. Следует сказать, что оптимальные стратегии поиска ми­ нимума функций многих переменных зачастую имеют довольно' сложное описание, что затрудняет их практическое использование. Заметим, что задача поиска экстремума функций многих перемен­ ных хорошо укладывается в общую схему исследования операций, разработанную в работе [69]. Это обстоятельство используется

1в работах [215, 216] для построения оптимальных стратегий поис­ ка экстремума на классе функций, удовлетворяющих обобщенному условию Липшица. Обзор оптимальных методов минимизации на различных классах функций см. в работе [120]. Общий обзор

методов минимизации функций конечного числа переменных и биб­

лиографию см. в работах [34, 70, 75,

79, 81, 82, 84, 86, 87, 96, 97,

109, ПО, 114, 116, 118,

133,

135, 138,

149, 155, 164, 170, 188, 193,

229, 230, 235, 239, 265]

и др.

 

 

Г л а в а 3

Принцип максимума Л. С. Понтрягина

В этой главе рассмотрим задачи оптимального управления процессами, описываемыми системами обыкновенных дифференци­ альных уравнений. К таким задачам приводят многие прикладные задачи, в частности, задачи механики космического полета ([75, 130, 142, 152, 246] и др.). Выдающуюся роль в развитии теории оптимального управления сыграл академик Л. С. Понтрягин, ко­ торый сформулировал необходимые условия оптимальности, изве­ стные под названием принципа максимума [195]. Этот фундамен­ тальный результат составил математическую основу теории опти­ мального управления, послужил мощным толчком как в развитии современной теории экстремальных задач, так и в создании чис­ ленных методов решения таких задач.

§ 1. ПОСТАНОВКА ЗАДАЧИ ОПТИМАЛЬНОГО УПРАВЛЕНИЯ

Сначала остановимся на некоторых конкретных задачах. Как известно ([75], стр. 129), при определенных условиях движение центра масс космического аппарата и расход массы описываются следующей системой дифференциальных уравнений:

r = v,

v = g ~ Ь

G = — gq, 0 < f < 7 \

(1)

 

О

 

 

где t — время,

r= r{t) —(гь г2,

г3) — радиус-вектор центра

масс

аппарата, v = v ( t) = (vь v2, v3) — скорость центра масс, G = G (t)

текущий

вес

аппарата,

g

— коэффициент

пропорциональности

между

массой

и весом,

P —P(t) — (pь

р2, р3)

— вектор

тяги

дви­

гателя,

 

q — q(t)

массовый

расход

рабочего

вещества,

F = F (r ,

t) — (Fu F 2,

F 3)

— вектор ускорения

от гравитационных

сил. Предположим, что фазовые координаты r(t), v(t),

G(t)

ап­

парата в начальный момент ^ = 0 известны:

 

 

 

 

 

 

 

г (0) = г0,

v (0) =

v0,

G(0) =

G0.

 

(2)

Величины

q = q { t ) ,

P — P (t)

являются управлением, и, задавая их

по-разному, можно получить различные фазовые траектории

(ре­

шения)

задачи

(1),

 

(2).

Конструктивные

возможности

аппарата,

ограниченность ресурсов рабочего вещества накладывают на уп­ равления ограничения, например, следующего вида:

< 7 т 1 п < ? (0 <<7тах> Р т\п < I Р ( 0 I < Р т ах. 0 < t < Т .

(3)

155

156 П Р И Н Ц И П МАКСИМУМА Л. С. ПОНТРЯГИНА [Гл. ■?

Кроме того, на фазовые траектории также могут быть наложены: некоторые ограничения, вытекающие, например, из условий того,, чтобы вес аппарата был не меньше определенной величины, или1 траектория полета проходила вне определенных областей космиче­

ского пространства

(областей повышенной радиации) и др. Здесь,

возникают

задачи

выбора управлений q{t), P(t) из условий (3)

так, чтобы

траектории системы (1), (2) удовлетворяли наложен­

ным ограничениям и, кроме того, некоторый целевой функционал принимал свое минимальное или максимальное значение. Напри­ мер, возможны задачи [75]: 1) попасть в заданную точку или об­ ласть космического пространства за минимальное время; 2) в за ­ данный момент попасть в заданную область пространства с задан­ ной скоростью и с максимальным весом аппарата или с минималь­

ной затратой энергии; 3)

достичь определенной скорости за мини­

мальное время и т. п.

 

 

 

 

 

 

общей

задачи

Эти задачи являются

частным случаем

более

оптимального управления,

к

формулировке

которой

мы

перехо­

дим.

 

 

 

 

 

 

 

 

Пусть некоторый управляемый процесс описывается системой

обыкновенных дифференциальных уравнений

 

 

х‘ = / '> \ х2,,

,

хп,

и1,

и2.......... ur,

t), tQ<Ct<CT,

 

 

i

=

1,

2,

. . . , п,

 

 

 

или в векторной форме:

 

 

 

 

 

 

 

 

х ~

f [х, и,

t),

t0 < t< C T ,

 

(4)

где х = (х1, . . . , хп)

величины,

характеризующие процесс в каж­

дый момент t и называемые фазовыми координатами управляемо­

го объекта,

« =

(и1......... ит)

параметры управления («положе­

ние

рулей»

системы),

определяющие ход

процесса; функции

f ‘ (x,

и, t)

( i = l ,

2, . . . ,

п),

описывающие

внутреннее устройство

объекта и учитывающие различные внешние факторы, предполага­

ются известными.

 

 

 

 

 

 

 

 

Для

того чтобы ход управляемого

процесса

(4) был

опреде­

лен

на некотором

отрезке

прежде всего необходимо за­

дать

параметры управления

и = ( и и2, . . . ,

иг),

например, как

функции

времени

u = u {t) =

(ul (t) , . . . ,

ur(t)),

t ^ t s ^ T .

Будем

предполагать, что

параметры

управления и

в

каждый момент t

принадлежат некоторой области управлений V(t), которая может быть любым множеством некоторого r-мерного евклидова прост­

ранства

Ег (в частности, может быть V (t)= E r). Управление

u = u(t)

назовем

допустимым, если его

координаты

uf (<)

(7 = 1 , 2

, . . . , г) явлются кусочно-непрерывными [или ограниченны­

ми измеримыми]

функциями и u(t)^ .V (t)

при

[почти

§ 1]

Постановка

задачи оптимального управления

 

157

всюду]. Множество всех допустимых управлений

обозначим

че­

рез U.

 

 

u (t)^ U ,

 

 

Возьмем

некоторое

управление

и в

(4)

положим u = u {t):

 

 

 

 

 

x = f(x , u{t), t),

t0 < t < T .

 

(5>

Под решением этого уравнения будем понимать непрерывное ре­ шение интегрального уравнения

 

X(0 =

| / (т), и (т), x)dx + x (/„).

(6),

 

 

 

и

 

 

 

Будем

предполагать, что

функции

р {х , и, t)

определены и;

непрерывны

вместе

со

своими

частными

производными fxi (х, и , t)

(i, j = 1, . . .

, п),

где x e £ „ ,

u ( t) e V ( t) , t0^ t ^ T .

При этих ус­

ловиях может быть доказано существование и единственность ре­

шения уравнения

(5) с

заданными начальными условиями

x (t0) t

определенное на

некотором

отрезке

 

to < T i^ T

[194,

254]. В дальнейшем будем рассматривать только те

допустимые

управления

u(t),

для которых решение уравнения

(5)’ существует

на всем отрезке

 

 

 

 

 

 

 

 

Построенное в определенном выше смысле решение уравне­

ния (5) с начальным условием

х(£0) будем называть решением,

или траекторией,

уравнения

(5), соответствующим

допустимому

управлению

u = u (t )^ U

и начальному

условию

x(t0) и будем

обозначать

через x ( t) = x ( t, и)

t o ^ t^ T .

Точку x(tQ)

будем назы­

вать левым концом траектории,

точку х(Т) — правым концом

тра­

ектории x (t,u ).

 

 

 

 

 

 

 

 

Теперь перейдем к непосредственной формулировке задачи оп­ тимального управления. Пусть в пространстве Е п заданы многооб­ разия S0(t), Si(t) и некоторое множество G (t), и пусть задан функционал

. J ( u ) = jf* ( x ,u ,t ) d t + 0 (x (T )), 1О

где функция /° (х, и, t) определена и непрерывна вместе с частными производными /°у (]' = 1,2, . . . ,п) при (х, u,t)£.G (t) х V (t) X [^0, Т],

Ф (х) — определена и непрерывна при х 6 G (Т) f| S/ (Т ).

Задача оптимального управления заключается в том, чтобы найти такое допустимое управление и = и * (t)^ U , чтобы соответ­ ствующая ему траектории x — x * (t) — x(d,u*) удовлетворяла усло­ виям х* (t0)^ S o (t0), x*(T )e= Si(T ), х* (t)^ G (t), и функ­ ционал J (и) достигал своей точной нижней грани: J (и*) = inf 1(и) —

158 ПРИНЦИП МАКСИМУМА Л. С. ПОНТРЯГИНА [ Гл. 3

= /*; здесь нижняя грань берется по всем u (t)^ U , для которых соот­

ветствующая траектория x (t,u )

определена при

и удов­

летворяет условиям

x(t0,u.)<=S0(to), x (T ,u )^ S i(T ), 'x(t,u)<^G(t),

Т.

 

 

 

Такое управление u*(t) будем

называть оптимальным управлени­

ем, x * ( t ) — x (t,u *),

t o ^ t ^ T оптимальной траекторией,

а пару,

(и* (t), х* (t)), t o ^ t ^ T

оптимальным решением рассматриваемой

задачи. Заметим, что задача отыскания максимума J (и) легко сво­

дится к сформулированной задаче,

если заметить, что

sup/(u) =

= — inf (— / («)).

 

 

 

 

 

Мы часто будем пользоваться следующей более краткой фор­

мулировкой задачи оптимального

управления:

найти

минимум

-функционала

 

 

 

 

 

 

 

J(u ) = j f 0(x ,u ,t)d t + O (x(T ))

 

(7)

лри условиях

 

 

 

 

 

 

 

x — f{x,u,t),

t0<t<CT,

 

(8)

* ( g

6 S0 (tQ),

X (Т) 6 S , (T),

X (t) е G (0,

 

(9)

u = u(t)eusz{u{t):u{t)ev(t),

t0< t < T )

( 10)

(подразумевая, конечно,'что u(t)

берется

из класса

кусочно-не-

лрерывных или ограниченных измеримых функций).

 

Множество G (t) называют ограничением на фазовые коорди­

наты х = ( а-1,

...,хп) или просто фазовым ограничением. Может слу­

читься, что

G ( t ) = E n

при всех £е[/0, Л. тогда

задача (7) — (10)

•называется задачей оптимального управления без ограничений на

■фазовые координаты и

вэтом случае условие х (t) е G (t),

в (9) не пишется. Если

же G (t)s £ E n, то задачу (7) — (10) называ­

ют задачей оптимального управления с ограничениями на фазовые координаты.

Далее, многообразие S0(t) [или

Si(Q ] может

не зависеть от

времени и состоять из одной точки,

тогда говорят, что в задаче

(7) — (10) левый

[или

соответственно

правый]

конец закреплен;

•если же S0(t) [или

 

 

совпадает со всем простран­

ством

Е п, то говорят,

что левый [или соответственно правый] ко­

нец свободный и в этом

случае условие A(^0) e 5 0(^o)[^(7’) e S x ( r ) ]

в (9)

не пишут; наконец,

если S 0(f)[Si(f)],

 

 

представляют

■собой

некоторую

гиперповерхность

или

кривую

в

Еп, то

левый

[правый] конец называется подвижным.

t0 и Т в

 

 

В

задаче (7) — (10)

моменты времени

общем

случае

могут быть неизвестны, тогда они зависят от управления и подле­ ж ат определению. В частности, если /°=1, Ф (а) = 0 , т о / ( « ) =

S 2)

Формулировка принципа максимума

Л.

С.

Понтрягина

153=

= Т10,

и задачу (7) — (10)

в этом

случае называют задачей бы ­

стродействия. Если же в

задаче (7) — (10)

моменты t0, Т извест­

ны, то задачу

(7) — (10)

называют

задачей

оптимального управ­

ления с закрепленным временем.

 

 

 

 

 

 

Если

p {x ,u ',t)= fi(x ,u )

(j— 0,

1,

п)

и

множества

S 0(O>-

Si(t), G(t)

не

зависят от

t,

то задачу

(7) — (10)

называют

авто­

номной.

 

 

 

 

 

 

 

 

 

 

 

Наряду

со

сформулированной

выше задачей

в теории

опти­

мального управления рассматриваются задачи с запаздыванием, с

параметрами, с

изопериметрическими

условиями,

с

дискретным:

временем и т. д.

([5,

8, 21, 24, 26, 27, 34, 48,

59— 61, 75,

80, 100,

101,

115,

123,

139— 142,

157,

160,

161,

171,

195,

205,

206,

228,

232,

234,.

236, 238,

259] и др.; обзор работ см. в [60], [140]).

 

 

 

 

 

 

Упражнения.

1.

Если u = u (t)

— кусочно-непрерывно,

то непре­

рывное решение уравнения

(6) кусочно-дифференцируемо и в точ­

ках

непрерывности

x(t)

удовлетворяет

уравнению

(5).

Доказать-

 

2.

Доказать, что в случае ограниченного измеримого управ

ния непрерывное решение уравнения (6) абсолютно непрерывно и почти всюду удовлетворяет уравнению (5). -

§2. ФОРМУЛИРОВКА ПРИНЦИПА МАКСИМУМА Л. С. ПОНТРЯГИНА

Рассмотрим

задачу

оптимального

управления

(1.7— 10)

при

V{t) — V, G ( t ) = E n, t o ^ t ^ T .

Будем

предполагать,

что

либо

S j( t ) = E n, либо

Sx(0 =

{C M )

:h i( x ,t ) = Q ,' i= l,

2,

...,

п ^ п } ,

где-

функции hi(x,t)

непрерывно дифференцируемы

по

(x ,t)^ E n'X

Х[*о, Т] и система векторов

 

 

 

 

 

 

 

Г dht

 

dhi

dh[

dll; ) ( j = 1, 2, . . .

,rtj)

 

 

\И х*’

a F ’

дхП ’ ~аГ/

 

 

 

 

 

линейно независима

при всех

(х, t) 6 Si. (t), причем

в

случае закреп­

ленного правого

конца /г; (х,

t) = х ‘ х\ ( £ = 1 , 2 , . . .

, пх = и).

 

Аналогично, пусть либо S0 (£) = £„, либо

 

 

 

 

S0{t)= {(x ,t):g i(x ,t)

= 0, £ =

1, 2, . . . ,/?0 < п },

 

где функции gi (х, t) непрерывно-дифференцируемы по (х, t) £ ЕпX [£0, 7]

и система векторов Х - ^ - , •. •, J ! ii-

dt

(£ = 1 2 , . . . ,п 0) линей-

1. ох1

дхп

J

но независима при всех (х, £) 6 S0(£), причем в случае закрепленного,

левого конца g t (х, t) ==хг'— х‘,

£ =

1, 2,

. . . , п0 = п.

Сначала рассмотрим случай, когда моменты £0. Т закреплены. ДЛЯ формулировки принципа максимума наряду с системой (1.8) рассмотрим следующую систему линейных дифференциаль­ ных уравнений относительно вспомогательных (дополнительно

вводимых) переменных ф(£) = (Ф1 (£). •••>фп ( 0 ) :

Соседние файлы в папке книги из ГПНТБ