Добавил:
Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:

книги / Математические методы принятия решений

..pdf
Скачиваний:
2
Добавлен:
13.11.2023
Размер:
22.94 Mб
Скачать

в пространстве критериев множество критериальных векторов

вЖк, которые одновременно удовлетворяют всем целям.

ВЦП используются две основные модели решения задач: архи­ медова модель и модель с приоритетами. В архимедовой модели точки — кандидаты в решение — генерируют путем определения тех точек из D, критериальные векторы которых являются ближайши­ ми в смысле взвешенной метрики пространства L\ к утопическому множеству в пространстве критериев. В модели с приоритетами генерируют решения, для которых критериальные векторы оказы­ ваются наиболее соответствующими в лексикографическом смысле точками утопического множества в пространстве критериев.

Пример. Рассмотрим задачу ЦП:

цель {с\х = z\},

z\ ^ t\,

ЦеЛЬ {с^Х = 22}»

*2 = Î2 ,

ц ел ь

{сТ3х = 23},

23 е Щ, £$],

при x e D .

 

 

Архимедова модель этой задачи записывается следующим об­

разом:

 

 

min{tuj"dj" + W2 d,2 +

+ w * d f + w ^ d j }

при целевых ограничениях

 

c}x + dj" ^ t i ,

c^x — d£ + d j = t2> c}x + d j ^ £",

clx — d f ^ t * ,

x e D ,

dj", d j, d j, df, d j ^ 0.

Переменные w \, W2, WT, в целевой функции — положительные штраф­ ные весовые коэффициенты; каждая цель порождает одно целевое ограничение, кроме случая, когда задан диапазон значений целевой функции и возникают два целевых ограничения. В формулировке задачи используются переменные отклонений dj", d%, d j , ..., кото­ рые соответствуют нежелательным отклонениям.

Архимедова целевая функция представляет собой взвешенную сумму переменных нежелательных отклонений. Переменные w\, W2, и>з позволяют штрафовать нежелательные отклонения от цели с разной степенью жесткости. Целевые ограничения расширяют об­ ласть допустимых решений D, переводя ее в пространство большей

размерности и создавая таким образом архимедову область допу­ стимых решений для задачи ЦП.

Архимедовы задачи ЦП можно решать, используя обычные ме­ тоды линейного программирования. Но тогда мы можем получить только крайние точки допустимой области в пространстве решений для архимедовой задачи ЦП (т. е. крайние точки области D после ее усечения целевыми ограничениями). В процесссе решения могут быть получены следующие варианты:

1)крайние точки области D\

2)точки границы области D, не являющиеся крайними;

3)внутренние точки области D.

Если ЛПР предпочитает получить точку, не являющуюся край­ ней точкой допустимой области архимедовой задачи ЦП, то ее мож­ но получить, используя процедуры изменения целевых показате­ лей U.

Рассмотрим задачу ЦП с приоритетами. В приоритетном (лек­ сикографическом) ЦП цели группируются по приоритетам. Цели с высшим уровнем приоритета считаются «бесконечно важными» по сравнению с целями со следующим уровнем приоритета, т.е. если решение задачи получено при некотором уровне приоритета, то цели нижних уровней не учитываются в дальнейшем. Рассмот­ рим задачу ЦП с приоритетами вида

цель

{с\х = z i},

P\(z\ ^

ti),

цель

{cjx = z2),

P2(z2 ^

t2),

цель {cjX = 23},

Рз(г3 =

h)

при х е D, в которой j = 1,2,3 указывают цели с уровнем приорите­ та j. Величины Pj служат и в качестве характеристик приоритетов, причем Pj » Pj+i (т.е. Pj много больше Pj+i).

Запишем задачу ЦП с приоритетами в следующей лексикогра­ фической форме:

lex m inldf, d j , (d+ + dj)}

при условиях

c}x — d ^ ^ t \ , c2x + d 2 ^ t 2,

c^ x

d ^ -b d j 1 £3 » 2* ^ -P,

d^ , d2 , d^ , rfj ^ 0.

Решается данная задача с помощью методов линейного про­ граммирования, при этом последовательно рассматриваются задачи с наибольшим приоритетом. На первом этапе решаем задачу целе­ вого программирования с первым приоритетом:

min{dj'}

при условиях

с}х — d* ^ t i , x e D d + ^ 0.

Если в этой задаче есть альтернативные оптимумы (для небазис­ ных элементов есть соответствующее значение Cj Zj = 0), то ре­ шаем задачу со вторым приоритетом, учитывая результаты, полу­ ченные на первом этапе:

m in{dj}

при условиях

 

c [ x ^ t\ + (d+)om, clx + d ^ ^ t 2, x e D ,

d j $ s 0 .

Здесь (di’)onT — оптимальное значение переменной

d*, найденное

на первом этапе.

 

Если в задаче второго этапа есть альтернативные оптимумы, то решаем задачу третьего этапа с третьим приоритетом, учитывая результаты, полученные на первых двух этапах:

minfdj' + dj}

при условиях

С\Х ^ il

+ (d f )опт>

С2Х ^ ^2

(d2 )опт,

с\х - d f

+ d j = ti,

x e D ,

d % , d j ^ 0,

где (dj)onr — оптимальное значение d j, найденное на втором этапе. Любое решение задачи третьего этапа определяет лексикогра­ фический минимум в задаче ЦП с приоритетами. Однако решение задачи прекращается, как только на каком-то этапе будет получено единственное решение, т. е. цели нижних уровней могут и не по­

влиять на решение.

Задачу ЦП с приоритетами можно решить в течение одного эта­ па при использовании лексикографического симплекс-метода.

Пример. Рассмотрим задачу ЦП:

цель

2 = zi},

P\{z\ ^

5),

цель

{ - x i - х 2 = z2},

P 2(z2 ^ 4),

цель

{я3 = z3},

Р3(23 ^

3)

при условиях х 2 ^ 2, хъ ^ 3, х\, х 2, х3 ^ 0. Данная задача преобразуется к виду

lex min {df, d j , dj}

при условиях-ограничениях

X 2 + d f ^ 5, - X \ - x2 + d^ ^ 4, æ3 + d^ ^ 3, x2 ^ 2 , x 2 < 3;

здесь все переменные положительные.

Введем дополнительные (слабые) переменные s i , ..., S5 и за­ полним симплекс-таблицу (табл. 5.19), из которой удалим столбцы базисных переменных; Cÿ —Z ÿ , i = 1, 2, 3, —строки относительных оценок целевой функции для каждого лексикографического уров­ ня Pj, j = 1, 2,3 (последние три строки симплекс-таблицы), в пу­ стых клетках —нули.

Таблица 5.19

Симплекс-таблица первого этапа

Базис

 

Свободный член

X\

ХЪ

Si

S2

S3

S4

d r

 

 

3

 

 

- 1

 

 

- 1

6^2

 

 

6

- 1

 

 

- l

 

 

d j

 

 

3

 

1

 

 

- 1

 

Х\

 

 

2

 

 

 

 

 

1

S5

 

 

3

 

ш

 

 

 

 

c \j ~

Z\j

3

 

 

1

 

 

1

c 2j — z

2j

6

1

 

 

l

 

- 1

C3j -

z

3j

3

 

- 1

 

 

1

 

Анализируя строки щ — Zÿ, г = 1,2,3, видим, что перемен­ ную S4 можно было бы перевести в базисные переменные. Тогда целевая функция второго лексикографического уровня может быть

уменьшена, но при этом увеличится целевая функция первого лек­ сикографического уровня, чего допустить нельзя. Таким образом, точка (х\,Х2, х-}) = (0,2,0) минимизирует целевые функции первого и второго этапов. Поскольку существуют альтернативные оптимумы, переходим к третьему этапу.

Вводим в базис переменную х-$, так как в первой и второй строках Cij Zij над элементом —1 нет положительных элементов. Получим новую симплекс-таблицу (табл. 5.20) и оптимальное реше­ ние (х\,Х2,хз) = (0,2, 3), которое и является лексикографическим минимумом для рассматриваемой задачи. В точке оптимального ре­

шения для первой цели имеем

= 3; для второй цели — d j = 6 ;

для третьей цели

= 0, т. е. цель достигнута.

Таблица 5.20

Заключительная симплекс-таблица

Базис

Свободный член

XI

Si

S2

S3

S4

S5

с?1

3

 

- 1

 

 

- 1

 

 

6

- 1

 

- 1

 

1

 

d3-

0

 

 

 

- 1

 

- 1

XI

2

 

 

 

 

1

 

Хз

3

 

 

 

 

 

1

р

3

 

1

 

 

1

 

Рг

6

1

 

1

 

- 1

 

Р

0

 

 

 

1

 

1

Наилучшие результаты в решении задач ЦП получаются в ин­ терактивном режиме, когда решаются одновременно и архимедова задача, и задача с приоритетами.

Полезно бывает использовать прием масштабирования целевых ограничений — записать отклонения от целей в процентах, т. е. вве­

сти вместо di выражение • сЦ. Если дополнительно миними­

зировать новую переменную а и добавить условие, что отклоне­ ния di не будут превышать значения а, то такая процедура будет минимизировать максимальное отклонение. В этом случае число дополнительных ограничений равно числу переменных отклонения на рассматриваемом уровне приоритета.

ЧАСТЬ II

СТАТИСТИЧЕСКИЕ МЕТОДЫ ПРИНЯТИЯ РЕШЕНИЙ

Всякая наука есть предвидение.

Герберт Спенсер

Г л а в а 6

АНАЛИЗ МЕТОДОВ ПРИНЯТИЯ РЕШЕНИЙ И ПОСТАНОВКА ЗАДАЧИ УЧЕТА ПОГРЕШНОСТЕЙ ПРИЗНАКОВ

§6.1. Основные понятия и определения

Теория принятия решений и распознавания образов в послед­ ние годы приобретает все большее значение в различных областях знания (технике, экономике, медицине и др.) и проникает в обла­ сти управления, исследования операций, радиолокации и т. д. Число статей и книг, посвященных этим вопросам, значительно возросло.

Алгоритмы распознавания образов, рассматриваемые в ч. 2 на­ стоящей книги, по совокупности признаков различаются этапностью принятия решений, степенью и характером учета статистики признаков, помех, сигналов.

Различают алгоритмы одноэтапного и многоэтапного [14, 63, 65, 66, 80-85] принятия решений. Одноэтапное принятие решений предусматривает обязательное получение оценки принятия г-й ги­ потезы с приемлемой достоверностью. Многоэтапное принятие ре­ шений предусматривает отказ от выдачи решения на первом эта­ пе (первых этапах) до получения дополнительного набора инфор­ мативных признаков (последовательные алгоритмы Вальда), либо принятие приближенного решения до получения дополнительно­ го набора информативных признаков, либо обобщение предвари­ тельных решений, полученных в различные моменты времени или от различных источников.

По степени учета статистических закономерностей различают

лингвистические и статистические алгоритмы. По характеру уче­ та статистических закономерностей из статистических алгоритмов выделяют параметрические (байесовские и небайесовские), непа­ раметрические и нейрокомпьютерные алгоритмы.

Лингвистические алгоритмы [18, 62, 81, 84] не учитывают ста­ тистики признаков объектов. Вводимые признаки описывают объек­ ты качественно, часто двоичными цифрами 0, 1. Описание призна­ ков в терминах алгебры логики (языковое, кодовое, синтаксическое) служит при этом основой распознавания изучаемых явлений.

Байесовские параметрические алгоритмы, в отличие от пара­ метрических небайесовских, учитывают не только статистику по­ мех, флуктуаций сигналов и признаков, но и определенные гипо­ тезы об априорных вероятностях Р* различных элементов алфа­ вита классов [28, 80, 85]. Структуры алгоритмов и работающих по ним устройств обработки сигналов определяются по матема­ тическим моделям, описывающим изучаемые явления. Статистика признаков сигналов, негауссова в общем случае, устанавливается путем эксперимента, математического или физического моделиро­ вания. Введение этой статистики можно трактовать как обучение распознаванию, адаптацию к конкретным условиям распознавания. Непараметрические алгоритмы синтезируются эвристически без яв­ ного принятия предположений о конкретных статистических рас­ пределениях [28, 52, 59, 62, 80, 85]. Их можно рассматривать в ряде случаев как эвристическое упрощение параметрических байесов­ ских алгоритмов.

Нейрокомпьютерные алгоритмы отличаются своей заранее за­ данной универсальной структурой с большим числом неизвестных параметров, уточняемых в процессе адаптации (обучения) [60, 101, 107]. Возрастание вычислительных затрат как издержку универса­ лизации компенсируют ростом производительности вычислитель­ ных средств.

К решению задач распознавания объектов (образов) привлека­ ют также ряд математических теорий и методов, развитие которых связано с появлением экспертных систем [35, 74]: теорию нечетких множеств и теорию возможностей [29, 74, 82], теорию игр и другие математические методы [7, 8, 12, 60, 61].

В задачах распознавания образов и принятия решений важную роль играет тот факт, насколько строго учтены неопределенно­ сти исходных данных. Использование усредненных величин ведет к смещенным оценкам основных показателей, определяющих реше­ ние, и, как следствие, к неверным практическим выводам. Поэтому

здесь особое внимание уделено строгому учету погреш ностей из­ мерений вектора признаков объекта.

Традиционные статистические методы распознавания образов часто не учитываю т погреш ности измерений наблюдаемых значе­

ний признаков, что приводит к следующему:

1) оценки функций условных плотностей распределения веро­ ятностей признаков образов (если даже вид плотностей известен априори), которые получаю т по результатам наблюдений, будут

смещ енными, а их интервальные оценки — неверными;

2) в процессе идентификации образов, имею щ их близкие зна­ чения координат векторов признаков, вследствие влияния погреш ­ ностей на результаты наблюдений может быть принято неверное

решение;

3) в традиционны х методах принятия реш ений функции услов­

ных плотностей распределения вероятностей признаков считаю т

в процедурах идентификации образов детерминированными (не учитываю тся их интервальные оценки), и по этой причине не рас­ сматриваю т имею щ ие место зоны неопределенности (нулевые зо­ ны) в принятии реш ений.

В отличие от традиционны х статистических методов распозна­ вания образов в настоящ ей книге рассматриваю тся методы, которые

позволяю т учесть погреш ности наблюдаемых значений координат векторов признаков объектов, получить несмещ енные точечные

и интервальны е оценки функций условных плотностей распреде­ ления вероятностей признаков, оценить «истинные» координаты вектора признаков, по которому ведется идентификация объектов, и вклю чить эти данны е в процедуру принятия решений.

В теории принятия реш ений используют методы математиче­ ской статистики, которыми проводят проверку гипотез, при этом вводят в рассмотрение реальные потери от возможной ош ибки при принятии гипотезы . У чет различных потерь для разных гипотез приводит к другим выводам, полученным методами теории приня­ тия реш ений, по сравнению с выводами, сделанными с помощ ью статистической проверки гипотез. Выбор менее вероятной гипоте­ зы может оказаться более предпочтительным, если потери в случае ош ибочности такого выбора окажутся меньш е потерь, вызванных ош ибочностью выбора более вероятной конкурирующей гипотезы.

Типичным примером такого случая является отбраковка изделий, выход из строя которых приводит к дорогостоящим последствиям. В этом случае более выгодно нести материальные потери на изго­ товление лишних изделий, чем допускать прием аварийно опасного изделия.

Вероятность ошибки, функция потерь, правила решений

В статистической теории решений, чтобы принять решение от­ носительно некоторых гипотез (состояний природы) toi и сог по ре­ зультатам наблюдений признаков х изучаемых явлений, необходимо каким-то образом получить апостериорное (на языке байесовских классификаторов) распределение P(tOj | х), j = 1,2. Если в после­ дующем окажется, что при наблюдении х вероятность P(a>i | х) бу­ дет больше P(2 | х), то следует все-таки выбрать решение, что состояние природы есть <0]. При этом совершается ошибка е, ве­ роятность которой есть

Пусть kj — потери вследствие принятия решения ы* при истин­ ном состоянии природы (истинной гипотезе) <0j. Ожидаемые поте­ ри называются риском, решение принимается по значению условно­

го риска

3

R(a>i |х) = lijP(v>j |х), г = 1,2,..., s,

з=1

где s число состояний природы (гипотез), х — наблюдаемые зна­ чения признаков, х е Х .

Если окажется, что \ х) < R(u>j \ х), то выбирается гипо­ теза <0j. Для случая двух состояний природы o>i и од последнее неравенство имеет вид

(hi - ill)P(cO, | X) > (i12 - /22(“ 2 Iх).

Рассмотрим для примера случай двух состояний природы, ко­ гда апостериорная вероятность известна и определена как произ­ ведение условной плотности распределения вероятностей р(х | од) и априорной вероятности Р(од) (рис. 6.1).

Соседние файлы в папке книги