Добавил:
Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:

книги / Системы экстремального управления

..pdf
Скачиваний:
8
Добавлен:
19.11.2023
Размер:
33.28 Mб
Скачать

Резюмируя сказанное, можно утверждать, что поро­ говую фильтрацию следует применять для объектов, на которых основные затраты идут на производство рабочих шагов, а пробные шаги делаются почти без затрат. В этом

Рис. 9.1.4. Поведение среднего смещения к цели в функции зашум­ ленности объекта.

случае простои не будут оказывать влияние на быстродей­ ствие поиска и среднее смещение к цели на один рабочий шаг будет равно

5® = a II - 2 P J J ,

(9.1.13)

где Р°ошопределено выше в (9.1.10). Делая порог Ôдоста­ точно большим, можно эффективно увеличивать среднее

смещение S0 вплоть до максимального Sm&x =

§ 9.2. Накопление в процессе поиска с дискретными помехами

Для того чтобы снизить эффект действия помех, можно ввести накопление, которое заключается в повторном те-кратном измерении показателя качества в одной и той же точке £/. Среднее значение этих замеров и принимается

| 9.21

ПОИСК С ДИСКРЕТНЫМИ ПОМЕХАМИ

255

з а и с х о д н о е в п р о ц е с с е п о и с к а :

 

 

 

IM»

 

 

 

Q (xi) = ТгГ 21 Q

= Q "b Êmj

(9.2.1)

 

i= l

 

 

гд е | т — о ср е д н е н ы а я п о м е х а

(9.2.2)

i= l

Ее математическое ожидание также равно нулю, а дис­ персия в т рае меньше

Д ( Ы = ~ .

(9.2.3)

Это и обеспечивает успех накоплению.

Рассмотрим статистические свойства поиска с накоп­ лением. В качестве исходного алгоритма возьмем, как обычно, поиск с парными пробами.

Получаем выражение для вероятности ошибочного решения

P „ = |[ l - ® ( M 2 2 l ) ]

(9.2.4)

и среднего рабочего смещения

5 = дф ( М ^ . ) .

(9.2.5)

Введем понятие среднего относительного смещения, ко­ торое численно равно среднему рабочему смещению, де­ ленному на число определений показателя качества, не­ обходимых для того, чтобы сделать этот рабочий шаг;

< 9 - 2 - 6 >

Эта характеристика наиболее полно определяет быстро­ действие поиска. Действительно, почти все затраты поис­ ка связаны, прежде всего, с определением показателя качества, поэтому, естественно, затраты здесь равны (по т измерений в каждой точке x t ±g). Проанализируем полученные формулы. На рис. 9.2.1 показано поведение вероятности ошибки и среднего относительного смещения

с ростом объема накопления. Хорошо видно, что обе вс 1ичины уменьшаются, т. е. с ростом надежности поиска уменьшается и его бы­

стродействие. Исключим функцию

Лапласа Ф из двух фор­ мул (9.2.4) и (9.2.6). По­ лучаем зависимость бы­ стродействия от вероят­ ности ошибки

Рис. 9.2.1. Поведение среднего от­ носительного смещения от цели (3°) и вероятности ошибки (Рот) в функ­

ции объема накопления для х 0,5.

становке больших помех, когда х

(9.2.7)

которая показана на рис. 9.2.2. Рассмотрим работу накопления в об-

- T J > 0 . Тогда

Рош —

1

1

 

2

Уя~

(9.2.8)

 

 

 

а

У т л

откуда легко определить эффективность накопления. Эта эффективность определяется

модулем производных; 3

а

dP.ОШ

2 У п

 

 

 

dm

У т л

 

dS°

_ _

а

(9.2.9)

*

dm

 

2тп Ути

*

Из

этих

выражений

можно

 

сделать следующие выводы.

 

1. Эффективность

введе­

Рис. 9.2.2. Зависимость сред­

ния дополнительного накоп­

него относительного смещения

ления 4-1) но сравнению

от вероятности ошибки при

с пг тем больше, чем меньше

различныхобъемахнакопления

тп. Это означает, что не сле-

(тп) и зашумленностях (х).

дует слишком сильно увеличивать тп, так как это мало­ эффективно.

2. Введение накопления снижает быстродействие зна­ чительно сильнее, чем вероятность ошибки.

Указанное вовсе не означает, что не могут встретиться случаи, когда следует выбирать объем накопления т до­ статочно большим. Это, например, необходимо, когда нельзя уровень ошибок делать больше, чем допустимо.

В этом случае объем накопления либо должен быть рассчитан на самый худший случай, либо изменяться в за­

висимости от величины х= . Такая последняя система поиска является самонастраивающейся. Рассмотрим ее.

§ 9.3. Самонастраивающаяся система экстремального управления

Проблема самонастройки здесь возникает в связи с тем, что в процессе поиска величина одного из важнейших па­ раметров — коэффициента зашумленности х —изменяет­ ся. Это изменение может происходить по двум причинам; 1) изменение уровня помехи а и 2) изменение величины

модуля ki = *4^-1 . . Если уровень помех обычно не из-

 

ÜX |я=ж.

меняется,

то модуль производной экстремальной харак­

теристики

объекта не изменяется в редких случаях.

В большинстве же случаев параметр к { изменяется в зна­ чительных пределах, изменяя и параметр зашумленно­ сти х.

Задача самонастройки заключается в том, чтобы оце­ нить величину х и определить объем накопления т таким образом, чтобы уровень ошибок в системе поиска не пре­ вышал заданного значения {};

р = т [ 1 - ф ( 4 ^ ) ] -

<9-з1 >

Как видно из этой формулы, для того чтобы 0 =

const,

необходимо удовлетворить условию

 

т = Е (?х2),

(9.3.2)

где Е (•) —целая часть (по не меньше единицы), а вели­ чина q зависит от уровня (3 очевидным образом;

Р= | [ 1 - Ф ( / 5 ) 1 .

(9.3.3)

Следовательно, если задан уровень ошибок (}, коэффи­ циент q может быть однозначно определен из этого урав­ нения. Задача, таким образом, свелась к оценке величины параметра ч2.

Рассмотрим два случая, когда уровень помехи известен,

т.е. а2 задано, и когда о2 неизвестно.

А.Свойства помехи известны. Тогда определение к2 на

каждом шаге сведется к оценке величины к (g. Оценка

Рис. 9.3.1. Блок-схема самонастраиваю­ щейся системы поиска при известном уровне помех.

к{g может быть получена следующим образом. Известно, что

AQi = 2ktg -ре

(9.3.4)

и математическое ожидание

М Q\) = 2kig.

(9.3.5)

Вместо математического ожидания можно воспользовать­ ся его оценкой на базе т измерений;

т

(9.3.6)

1=1

Следовательно, приближенное значение параметра к2 на l-м этапе поиска равно

Здесь и далее значком сверху обозначена приближенная

оценка, a AQa —приращение показателя качества в ;-м цикле (; = 1, . ?П{). Теперь оценка объема накопления будет выглядеть так:

те1+1 = Е (gxf).

(9.3.8)

На рис. 9.3.1 показана блок-схема самонастраиваю­ щейся таким образом системы поиска. Здесь значение AQ' осредняется на базе те* измерений в накопителе Н и поступает в вычислительное устройство ВУ. На выходе

этого устройства получается оценка те*+1:

mi+1 = Е

4уса

\~2

(9.3.9)

 

 

 

 

1^1 ч

которая используется на следующем этапе поиска после того, как будет сделан рабочий шаг.

Как видно, такая система самонастройки будет в сред­ нем стремиться к оптимальному объему накопления те, которое соответствует заданной вероятности ошибки р. Однако ввиду конечности те полученная оценка будет слишком приближенной и будет сильно колебаться относительно оптимального значения те*. Эти колебания могут быть значительными особенно при высоком уровне помех.

Поэтому при высоком уровне помех целесообразно введение операции сглаживания, срезающей эти случай­ ные колебания. Работает это сглаживание следующим образом:

тег+i = те* + у sign (те* —mi),

(9.3.10)

где у —целое положительное число. Очевидно, что такое сглаживание не позволяет изменять объем накопления больше чем на величину у за один этап поиска. Эта мера «срезает» всплески и делает работу самонастройки более равномерной. Однако, как всякое сглаживание, она уменьшает быстродействие системы самонастройки.

Б. Свойства помехи неизвестны. Рассмотрим теперь случай, когда дисперсия помехи неизвестна и изменяется

в процессе поиска. Очевидно, что система самонастройки должна быть расширена с целью оценки дисперсии а2.

Это может быть сделано следующим образом. Извест­ но, что

D (AQl) = 2о2.

(9.3.11)

Оценка дисперсии AQ имеет вид

 

mi /

тг

i= l

3=1

откуда, учитывая (9.3.11), нетрудно получить оценку дисперсии помехи о2.

Она равна

т .

 

н2 =

ЬI________ ^

(9.3.13)

 

 

(пЧ-

I) S AQ;,

 

 

 

 

3=1

 

Блок-схема оптимизатора с самонастройкой накоп­

ления по

этому

алгоритму

отличается от предыдущей

введением цепей

оценки дисперсии помехи ô2. Эти цепи

включают

дополнительные

квадратор

и накопитель.

Вычислительное устройство ВУ реализует оценку (9.3.13) и вычисляет лг,+1 по формуле (9.3.2).

Очевидно, что такая схема имеет более дисперсные свойства, чем предыдущая, так как дополнительные слу­ чайные возмущения получаются за счет введения оценки дисперсии. Снижение дисперсии оценки оптимального объ­ ема накопления можно сделать путем аналогичного введе­ ния операции сглаживания по формуле (9.3.10).

§9.4. Последовательное накопление

Впредыдущемпараграфе рассмотрено поведение экстре­ мального объекта с помехами в процессе поиска при фик­ сированном (на данный момент) объеме накопления т. Задача заключалась в том, чтобы определить такое зна­

чение объема накопления, для которого вероятность ошибки была бы заданной [9.3, 9.4].

Как известно, успех экстремального управления за­ ключается в правильности определения знака прираще­ ния AQ. Измерения позволяют определить лишь

sign AQ' = sign [AÇ

— е2],

(9.4.1)

где AQ —действительное приращение функции качества, AQ' — измеренное; для поиска с парными пробами имеем

AQ = 2kg]

(9.4.2)

е1 и е2 —случайные ошибки, к —градиент функции ка­ чества (тангенс наклона характеристики)

* = - § - •

<9-4-3>

Для AQ' получаем при алгоритме с парными пробами

AQ’ = Д<? + е (/2 "п ),

(9.4.4)

где а2 —дисперсия помехи. Причем m-кратное опреде­ ление AQ’ дает следующее значение суммы;

т

 

2 AÇi = mAQ -]- е (Y 2тпз).

(9.4.5)

i=l

 

Видно, что полезный сигнал суммы увеличивается в т раз,

а уровень помехи лишь в

Это и дает возможность при

достаточно больших т

значительно снизить влияние

помехи.

 

А. Вальд [9.5, 9.6] предложил при выделении полезно­ го сигнала не фиксировать объем выборки в процессе на­ копления, а определять его в момент, когда модуль сум­ мы (9.4.5) достигнет определенного уровня. Если эта сум­ ма окажется равной некоторому положительному порогу А, то естественно (с определенной вероятностью) пред­ положить, что и полезный сигнал имеет положительный знак. Если же сумма (9.4.5) станет меньше отрицатель­ ного порога ( — А), то с той же вероятностью можно счи­ тать, что и полезный сигнал отрицателен. Таким образом,

Рис. 9.4.1. Зависимость веро­ ятности ошибки от порога.

алгоритм принятия решения о знаке AQ имеет вид:

m

f

А ,

то

Д()<^0 ,

 

если 2 * < ? Н

 

(9.4.6)

^

> А,

то

AQ > 0;

i= l

 

 

 

 

при

 

 

 

 

 

- л < 2 д<?;<л

(9.4.7)

i= l

 

накопление продолжается, т. е. т -> m -f 1 .

Связь между величиной порога Л и вероятностью ошибки Р для алгоритма с парными пробами имеет вид

19.2]

 

 

А = — 4 г - In

1 - />

(9.4.8)

2Ag-

 

(Здесь и ниже к — модуль градиента показателя качества,

т. е. /с^> 0.) Таким

образом, задавая Р ,к и

а,

можно

определить порог А ,

необходимый для заданной вероят­

 

ности ошибки Р

Из

(9.4.8)

 

нетрудно получить выраже­

 

ние для вероятности

ошибки

 

ехр ( — •

о-

 

 

Р =

2kgА \ «

 

1 + exp I

 

°3

/

 

 

 

 

 

(9.4.9)

которая показана графически на рис. 9.4.1. Отчетливо вид­ но, что с увеличением модуля наклона экстремальной ха­

рактеристики к вероятность ошибки Р уменьшается. Это аналогично случаю с фиксированным объемом на­ копления. Число шагов, необходимое для окончательного принятия решеппя при последовательном накоплении, является случайной величиной. Ее среднее значение

равно при Р<С~2~

р

(9.4.10)

да = т $ - ( т - />) 1п -

Хорошо видно, что эта величина возрастает с уменьшением вероятности ошибки Р.

Определим среднее смещение к цели на одно вычисле-

ние показателя качества. Оно равно для Р

 

1 — 2Р

(9.4.11)

а

 

Эта функция монотонно возрастает с увеличением Р от О до 1/2. Следовательно, оптимальным Р, с точки зрения быстродействия, следует считать Р = 1/2, которое приво­ дит к нулевому порогу А = 0. Нулевой порог означает, что наибольшее быстродействие обеспечивает . 4 = 0 , что и следовало ожидать, так как при этом отсутствует накоп­ ление, которое, как известно, всегда снижает быстродейст­ вие поиска. Заметим, что при А = 0 рассматриваемая система поиска в точности совпадает с обычной системой без накопления (при т = 1 ), рассмотренной в § 8 .2 . Следовательно, максимальное быстродействие (при А = 0 ) равно

= ф (—т — ) •

(9.4.12)

Ошибка при этом максимальна и имеет вид

А м . = | [ l ~ ® ( - Т — ) ] •

(9.4.13)

Представляет интерес сопоставить эффективность поис­ ка с фиксированным объемом накопления (он исследован в § 9.2) и с последовательным накоплением, рассмотрен­ ным в этом параграфе.

Прежде всего, сопоставим их быстродействие, т. е. среднее смещение к цели на одну пробу. Для этого рас­ смотрим поведение отношения средних смещений для обоих алгоритмов:

ï (Р) =

[Ф-Ч1 - 2 Р)]»

(0 < Р < Ртах), (9.4.14)

(1 — 2Р) In — р

где Ф- 1 — функция, обратная Ф. Эта величина показывает, во сколько раз быстродействие алгоритма с последова­ тельным накоплением больше быстродействия алгоритма поиска с фиксированным объемом накопления при одина­