Добавил:
Upload Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:
v2_0_Investitsiam_1-30.docx
Скачиваний:
12
Добавлен:
06.09.2019
Размер:
2.57 Mб
Скачать

Вопрос 26. Мультипликатор, акселератор и инерционное звено

Поскольку динамическая система имеет в своем составе хотя бы один динамический элемент, то вначале изучим поведение динамического элемента. Нелинейный динамический элемент n-го порядка задается следующим уравнением: Где x(t) – входное воздействие на элемент (вход); y(t) – реакция элемента на входное воздействие (выход);

В частности, линейный динамический элемент n-го порядка задается следующим линейным дифференциальным уравнением: (1) Наиболее часто в практических приложениях встречаются элементы нулевого порядка (мультипликатор, акселератор), первого порядка (инерционное звено) и второго порядка. Звено второго порядка может быть колебательным звеном либо двумя последовательно соединенными инерционными звеньями.

Мультипликатор – линейное статическое звено, задаваемое уравнением: или , - коэффициент усиления. Например, валовые инвестиции I (вход) следующим образом связаны с валовым внутренним продуктом Y (выход): , где -доля валовых инвестиций в ВВП.

- коэффициент усиления (мультипликатор), который показывает насколько должен быть увеличен ВВП для увеличения валовых инвестиций на единицу. Таким образом, в широком смысле, мультипликатор – усилительное линейное статическое звено, в узком смысле – сам коэффициент усиления.

Акселератор – дифференцирующее звено нулевого порядка, выход которого пропорционален скорости входа. Например, инвестиции могут быть выражены через скорость изменения ВВП следующим образом: , где r – коэффициент акселерации, т.е. прирост потребности в инвестициях при увеличении ВВП на единицу. При дискретности времени или (один год) то же уравнение выглядит следующим образом: .

Инерционное звено - задается дифференциальным уравнением = первого порядка: . Путем деления уравнения на его можно привести к стандартному виду: где . Инерционное звено описывает процесс отработки заданного входного воздействия (значок «тильда» опустим), при этом скорость обработки пропорциональна разности между входом и выходом: .

Пример. Модель освоения введенных мощностей.

Если обозначить через x введенную мощноcть, а y(t) – фактическое производство на ней, тогда можно предположить, что и получаем уравнение инерционного звена:

Общее решение однородного уравнения Получаем

Частное решение y=x. Тогда общее решение уравнения примет вид

Константу C находим из начального условия, окончательно имеем

27. Передаточная функция и колебательное звено

Понятие передаточной функции динамического элемента и линейной динамической системы связано с операторным методом решения дифференциального уравнения. Суть метода состоит в сведении решения дифференциального уравнения к решению алгебраического уравнения. В основе метода - переход от первоначальных функций времени x(t), y(t) к их образам X(s),Y(s) – преобразованиям Лапласа этих функций.

Определение преобразования Лапласа для некоторой ф-и :

И формулу обратного перехода от образа к оригиналу (прообразу)

Образ производной можно найти по образу функции

, поэтому

;

В частности, при , при

Применим преобразование Лапласа к обеим частям уравнения динамического элемента (1) :

Передаточной функцией G(s) динамической системой (или подсистемы, или элемента) называется отношение образа выхода к образу входа при нулевых начальных условиях.

Из (2) видно, что передаточная функция линейного динамического элемента является дробно-рациональной функцией параметра S. Например передаточная функция инерционного звена равна:

В передаточной функции динамической системы (подсистемы, звена)содержатся все сведения о ее поведении при нулевых начальных условиях. В самом деле, по входу x(t) находим его образ X(s), затем умножаем этот образ на передаточную функцию, тем самым получаем образ выхода Y(s)=G(s) X(s) и, наконец, пользуясь либо таблицей «Преобразования Лапласа типовых функций», либо непосредственно формулой перехода от образа к оригиналу, определяем выход y(t). Если начальные условия ненулевые, то к этому решению еще добавится «шлейф», образ которого - R(s).

Колебательное звено задается дифференциальным уравнением

второго порядка: (1) .С отрицательным дискриминантом, составленным из коэффициентов в левой части уравнения (1)

Колебательное звено описывает циклические процессы в экономике.

Пример. Однономенкулатруная система управления запасами как колебательное звено.

Пусть - фактические интенсивности расхода и поступления товара в систему вправления запасами в момент t. Поскольку поступление не известно, то всегда будет либо запас, либо дефицит. Изменение запаса следующим образом связано:

(1)

Управлять интенсивность поставок можно только по известному значению запаса. Имеется два варианта управления:

1. Изменение поставок пропорционально величине запаса

(2)

Взяв производную от (1) и подставив туда (2) получаем

2. Изменение интенсивности поставок пропорционально как запасу, так и сокрости его изменения

(3)

Взяв производную от (1) и подставив туда (3) получаем

Вопрос № 28. Принцип максимума Понтрягина

Принцип максимума Понтрягина- соотношения, выражающие необходимые условия сильного экстремума для неклассической вариационной задачи оптимального управления математической теории. Сформулирован в 1956 Л. С. Понтрягиным

Ставя при формулировке задач ТОУ ряд дополнительных ограничений, получаем соотношения в форме Лагранжа - Понтрягина как необходимые условия оптимальности. Последние вытекают из теорем о достаточных условиях оптимальности, отвечая необходимым условиям выполнения этих достаточных условий. Применительно к непрерывным управляемым процессам они известны в виде принципа максимума Понтрягина. Сформулируем его в виде теоремы. Прежде рассмотрим следующую задачу ТОУ для непрерывной системы:

Пусть заданы дифференциальные уравнения процесса

= f (t , x , u ) , i=1,2,...,n , (1)

где x = (x , x , ..., x ) - n - мерный вектор ее состояния ; u= (u , u , ..., u ) - r- мерный вектор управления. На управлениие может быть наложено ограничение

u U , (2)

где U R - некоторая область возможных значений управления (R - множество действительных чисел, векторов), которая может изменяться во времени.

Для дифференциальных уравнений (1) будем считать заданным начальное состояние системы в виде совокупности условий:

x (0 ) = x , i=1,2,...,n . (3)

Кроме того, может быть задано состояние системы в конечный момент времени t=T :

x (T ) = x , i=1,2,...,m , m n , (4)

представляющее дополнительное ограничение на протекающий в ней процесс (x(t), u(t)). Ограничения (4) могут быть заданы не по всем переменным, а лишь по некоторой их части - в данном случае по первым m .

Будем считать, что качество процесса оценивается функционалом

J= f (t, x, u) dt + F(x(T)) min . (5)

Если правый конец траектории процесса зафиксирован с помощью соотношений (4) , то второе слагаемое в (5) является постоянной величиной и не влияет на нахождение оптимального решения.

Требуется определить процесс (x*(t), u*(t)) , удовлетворяющий ограничениям (1) - (4) и минимизирующий функционал (5) . Такой процесс, называют оптимальным.

Теорема 1 (принцип максимума Понтрягина). Пусть (x*(t), u*(t)) - оптимальный процесс в задаче оптимального управления (1) - (5). Тогда существует вектор-функция (t) = ( (t), (t), ... , (t)) , удовлетворяющая вместе с данным процессом следующим условиям:

1. Функция H (t, x, , u) = - f достигает максимального значения по u при x= x*(t), = (t) на значении u = u*(t) при всех t [0, T].

2. Переменные (t) удовлетворяют системе дифференциальных уравнений ( = - , i=1, 2, ... , n).

3. В конечный момент времени t = T оптимальная траектория удовлетворяет условиям ( = - ).

Отметим, что Принцип максимума Понтрягина определяет лишь необходимые условия оптимальности. Следовательно, он не гарантирует, что найденный процесс действительно является оптимальным. Он (принцип) лишь отбрасывает заведомо ложные процессы. Д.т.ч. процесс был оптимальным необходимо ввести ряд ограничений, которые сформулируем в виде теоремы:

Рассмотрим, чем обусловлено название “принцип максимума” и к чему оно относится, если функционал в форме интеграла, оценивающий качество управляемого процесса (x*(t), u*(t)), устремляется к минимуму.

Суть дела в том, что из всех операций метода, изложенных в предыдущем разделе, максимизация функции Гамильтона (см. условие 1 теоремы 6.1) при большой размерности векторов состояния x и управления u - наиболее трудоемкий процесс. Это самая сложная операция и дала название методу.

Принцип максимума как необходимое условие оптимизации управляемых процессов не гарантирует оптимальности. Он только позволяет отсекать из множества допустимых заведомо неоптимальные процессы, когда его условия не выполняются, а остальные процессы, удовлетворяющие принципу максимума, следует воспринимать лишь как кандидаты в оптимальные. Даже если такой кандидат один, из содержательных условий задачи должно вытекать знание о наличии оптимального процесса. Тогда этот процесс и будет оптимальным. Однако при строгих рассуждениях это не убедительно, нужны более точные аналитические оценки. Они существуют и формулируются в виде следующей теоремы.

Теорема 2. Для задачи

J= f (t, x, u) dt + F (x(T)) min ,

= f (t, x, u) ;

u(t) U ;

x(0) = x , x(T) V

принцип максимума обеспечивает оптимальность найденного процесса, если:

а) подынтегральная функция f (t, x, u) выпукла по x и u в каждый момент времени t (0; T) ;

б) терминальный член F (x(T)) - также выпуклая по x функция;

в) дифференциальные уравнения процесса линейны, т.е. имеют вид

= a (t) x + b ; i= 1, ..., n ;

г) множества U и V выпуклы , при этом множество V может вырождаться в одну конечную точку x(T) V

Следствие. Для линейных задач оптимального управления принцип максимума обеспечивает необходимые и достаточные условия оптимальности. Действительно, в данном случае подынтегральная функция f 0(t, x, u) и терминальный член F(x) – линейные функции своих аргументов. Поскольку линейная функция одновременно и выпуклая, и вогнутая, то требование выпуклости удовлетворяется.

Вопрос № 29. Метод Лагранжа-Понтрягина решения непрерывной задачи ТОУ

Рассмотрим следующую задачу ТОУ для непрерывной системы.

Пусть заданы дифференциальные уравнения процесса

= f (t , x , u ) , i=1,2,...,n , (1)

где x = (x , x , ..., x ) - n - мерный вектор ее состояния ; u= (u , u , ..., u ) - r- мерный вектор управления. На управлениие может быть наложено ограничение

u U , (2)

где U R - некоторая область возможных значений управления ( R - множество действительных чисел, векторов), которая может изменяться во времени.

Для дифференциальных уравнений (1) будем считать заданным начальное состояние системы в виде совокупности условий:

x (0 ) = x , i=1,2,...,n . (3)

Кроме того, может быть задано состояние системы в конечный момент времени t=T :

x (T ) = x , i=1,2,...,m , m n , (4)

представляющее дополнительное ограничение на протекающий в ней процесс (x(t), u(t)). Ограничения (4) могут быть заданы не по всем переменным, а лишь по некоторой их части - в данном случае по первым m .

Будем считать, что качество процесса оценивается функционалом

J= f (t, x, u) dt + F(x(T)) min . (5)

Если правый конец траектории процесса зафиксирован с помощью соотношений (4) , то второе слагаемое в (5) является постоянной величиной и не влияет на нахождение оптимального решения.

Требуется определить процесс (x*(t), u*(t)) , удовлетворяющий ограничениям (1) - (4) и минимизирующий функционал (5) . Такой процесс, как уже известно, называют оптимальным.

Рассматриваемая задача - частный случай общей задачи ТОУ: в ней по сравнению с общим случаем отсутствуют ограничения на состояние системы, множество допустимых управлений U не зависит от состояния x.

Пусть (x*(t), u*(t)) - допустимый процесс, удовлетворяющий теореме о достаточных условиях оптимальности. Это означает, что существует функция (t, x) , обладающая тем свойством, что выражение

R (t, x, u) = + f (t, x, u) - f (t, x, u) (6)

достигает при t [0; T] максимума по переменным x , u в точке (x*(t), u*(t)) , а функция

Ф (x) = (T, x) + F(x) (7)

принимает минимальное значение при x = x* (T) . Если условия (4) на правом конце траектории заданы для всех m=n , то требование минимума выражения (7) превращается в тривиальное, так как множество , на котором определена функция Ф (x) , вырождается в единственную точку .

Введем в рассмотрение переменные = (t), i=1,2,...,n. (8)

Аналогичные обозначения будут использоваться и в последующем. Вектор-функция (t) = ( (t), (t), ... , (t)) при каждом фиксированном значении t - градиент функции (t, x) в точках оптимальной траектории x=x*(t).

Введем в рассмотрение так называемую функцию Гамильтона (другое название - гамильтониан) :

H(t, x, , u) = - f . (9)

C ее помощью функция R(t, x, u) может быть записана в виде

R(t, x, u) = + H(t, x, , u) . (10)

Так как процесс (x*(t), u*(T)) удовлетворяет достаточным условиям оптимальности, то при

R(t, x*(t), u*(t)) R(t, x , u ) (11)

для всех (x , u) .

Пусть функция и процесс (x*(t), u*(t)) удовлетворяют теореме о достаточных условиях оптимальности. Тогда существуют такие значения вектор-функции , которые вместе с (x*(t), u*(t)) удовлетворяют условию

H (t, x*(t), , u*(t)) = max H (t, x*(t), . (12)

u

максимума функции H (t, x , ) и системе дифференциальных уравнений

= f (t , x , u ) , i=1,2,...,n , (1)

= - , i=1, 2, ... , n . (16)

Кроме того, в начальный момент времени t=0 для состояния x(t) выполнены начальные условия (3) , а в конечный момент t=T переменные x(t) и удовлетворяют условиям (4) и

= - , i=m+1, m+2, ... , n . (18)

Перечисленные условия (1), (3), (4), (12), (16), (18) представляют собой соотношения метода Лагранжа-Понтрягина, позволяющего получить решения задач ТОУ.

Вопрос № 30. Метод Гамильтона-Якоби-Беллмана решения непрерывной задачи ТОУ

При постановке задачи ТОУ предполагается, что такие ее элементы, как начальное состояние и начальный момент времени, фиксированы. Однако это не всегда выполняется на практике. Поэтому при решении конкретной задачи оказывается удобным рассматривать ее в составе множества качественно однотипных задач, описываемых теми же уравнениями процесса и функционалом, но с различными значениями перечисленных параметров.

Определяя оптимальное управление сразу для всего множества таких задач, получим решения в форме синтеза, которое будет представлять из себя зависимость качественных свойств оптимального управления от состояния системы и текущего момента времени. Имея решение задачи в подобном виде, нетрудно получить ее решение и для любых фиксированных начальных условий в обычной форме, т.е. найти оптимальное управление как функцию времени. Решение задачи в форме синтеза обладает рядом преимуществ. Главное из них состоит в том, что имеется полная информация об оптимальном управлении. Если при этом реализовались заранее не известные значения состояния системы, а на практике это типичная ситуация, то значение синтеза оптимального управления позволяет принять оптимальное решение и в данной ситуации.

С математической точки зрения отыскание синтеза оптимального управления сводится к решению нелинейного дифференциального уравнения с частными производными, называемого уравнением Гамильтона-Якоби-Беллмана (для непрерывных процессов).

Рассмотрим задачу оптимального управления, заданную следующими условиями:

J = min, (1)

(2)

x(0)=x , u . (3)

Как видно из постановки задачи (1) - (3), в ней отсутствуют ограничения на состояние, а множество допустимых управлений V не зависит от состояния x. Другими словами, множество Vx t при всех t∈(0;T) совпадает со всем пространством X, а при t=0 задано начальное условие – фиксированная точка x0. Ограничения на состояние x в момент t=T не заданы, т.е. рассматривается задача со свободным правым концом на траектории состояний. Как мы увидим ниже, если в реальной задаче присутствует условие на правом конце, от него нетрудно избавиться, модифицируя терминальный член в формуле (1) с использованием метода “штрафных функций” (М - метод).

Для получения уравнения Гамильтона-Якоби-Беллмана воспользуемся теоремой о достаточных условиях оптимальности, согласно которой, если есть допустимый процесс v*=(x*(t), u*(t)) M и непрерывно дифференцируемая функция такие, что при всех t, x

R(t, x*(t), u*(t)) = max R(t, x, u), ,

(x,u) V

Ф(x*(T) = min Ф(x) при t=T,

x

то процесс (x*(t), u*(t)) оптимален, т.е.

J(x*, u*) = inf J(x, u) .

v

Известно, что

R(t, x , u) = ,

а

Ф(x) =

Введем функцию P(t,x) = max R(t, x, u) .

u

Предположим, что удалось так определить функцию (t,x) , что

P(t, x) = c(t), (4)

Ф(x) = c . (5)

Так как функция (t, x) задана, следовательно, задана и функция

R(t, x , u), максимизируя которую по управлению u , найдем u*(t ,x) :

u*(t, x) = arg max R(t, x, u), .

u

u*(t, x) является синтезом оптимального управления, решением рассматриваемой оптимизационной задачи.

Для определения оптимального состояния - вектора x*(t) подставим синтез оптимальных управлений u*(t, x) в уравнение процесса:

, x(0) = x . (6)

Итак, определение оптимального состояния x*(t) сводится к решению задачи Коши (6) для уравнения процесса, замкнутого синтезом оптимальных управлений с начальными условиями x(0) = x . В отличие от синтеза оптимального управления u*(t, x) функцию

u(t) = u*(t, x) (7)

называют оптимальной программой управления. Данное определение отражает тот факт, что оптимальная программа управления, определяемая формулой (7), отвечает уже не произвольному состоянию x , а конкретному оптимальному x*(t) .

Изложенный метод нахождения процесса (x*(t), u*(t)) при априорных ограничениях, наложенных на функцию (t, x), называется методом Гамильтона-Якоби-Беллмана. В этом случае процесс (x*(t), u*(t)) является оптимальным.

При решении задачи (1-3) мы обошли вопрос определения функции . На самом же деле данный вопрос является критическим в данной ситуации. Следовательно, рассмотрим подход, позволяющий нивелировать данные сложности.

Итак, начинаем с отыскания функции , которая должна, как следует из вышесказанного, удовлетворять двум априорным требованиям (4) и (5).

Функцию

R(t, x, u)= ,

учитывая, что правая часть этого равенства равна

H(t, x, u) + ,

перепишем в виде

R(t, x, u )= H(t, x, u) + .

Так как не зависит от u , то выражение

P(t, x) = max R(t, x, u )

u

примет вид

P(t, x) = max H(t, x, u) + , (9)

u

т.е. максимизация касается только гамильтониана H(t, x, u) + .

Таким образом, равенство (9) с учетом (4) примет вид

max H(t, x, u) +c(t). (10)

u

Уравнение (10) называется уравнением Гамильтона-Якоби- Беллмана. При c(t)=0 это уравнение называется уравнением Беллмана:

max H(t, x, u) . (11)

u

Уравнения (10) и (11) являются уравнениями в частных производных первого порядка, разрешенными относительно .

Из Ф (x) = (T, x) + F(x) с учетом (5) получаем для уравнения Беллмана (11) граничное условие

. (12)

Таким образом, чтобы найти функцию , удовлетворяющую априорным ограничениям (4) , (5) , надо решить уравнение в частных производных (10) с граничным условием (12). Подобная задача называется задачей Коши в отличие от краевой, когда часть граничных условий задается на одном конце, а часть - на другом. Поскольку на функцию c(t) и на константу c никаких дополнительных условий не накладывается, их обе можно принимать равными нулю.

При t=T функция (t, x) задана: (T, x) = - F(x). Учитывая сказанное выше, принимаем c =0.

Через точки t , t , ... , T-1 проводим сечения. Обозначим и будем искать

(t - t ).

Учитывая (11) при c(t)=0, получим, обозначая N = max H(t, x, u) ,

u

.

Это соотношение позволяет вычислить , зная . При t=T значение известно.

Найденная таким образом функция (t, x) и соответствующая ей функция u*(t, x) уже решают поставленную задачу. Остается только подставить в уравнение процесса (2) u*(t, x) и проинтегрировать его при заданных начальных условиях (3) .

Соседние файлы в предмете [НЕСОРТИРОВАННОЕ]