Добавил:
Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:

книги / Математические методы принятия решений

..pdf
Скачиваний:
2
Добавлен:
13.11.2023
Размер:
22.94 Mб
Скачать

Рассмотрим решающую процедуру с фиксированным объемом выборки.

Пример 2. Найти решающую границу для « i и о*2, если

, | ч

1

f 1 (х —МЛ21 .

В общем случае (при о\ ф ст2) согласно соотношению (6.10) ре­ шающая граница определяется из условия

или

P(C0l)

In

P(C02)

 

p(“ i)

,

P ^ l^ l)

Л

In fr

- + In

—r—------ = 0,

 

P(W2)

 

P(x Ito2)

 

,

a,

 

( i - M i )1

,

(x - Mi)1

+ l n -

-------2^

+

5 3

'

0\

 

 

 

 

2ct2

= 0 -

При ai = a 2 = o получим

In ^ - - ' ' — (Mi - М г - 2x) = 0, P((02) 2CT

откуда решающая граница для 6)i и а>2 определяется следующим

°бразом:

P W

 

 

0

Р(б>2)

, М\+ М2

х =

1 Г г - М 7

2

Пример 3. Найти решающую границу для плотности двумер­ ного гауссова распределения р(я I “ г), г = 1, 2, со средними век торами (m ix,m iy), i = 1, 2, и с общей ковариационной матрицей

К = ( а'

М

при p(w,) = Р(«г)- Разделяющая граница в данном

\ 0

о2/

„„„«ей уравнение которой имеет вид

случае будет прямой линией, уг

( \ (о 12 о \ / mu - т2Л -

 

 

 

 

т\х ~ ТП2х

 

 

 

 

miî, - m 2ÿ,

 

 

 

 

1 / m i x + ^ A ( а 1 0 \ /m .s- ^ Л = о,

- 2 (пня + тгу)

' 0

° 2' '

\ да,у ” miV

 

или

 

 

 

 

1

m ll -

™2х ,

Ш1» mM

= 0.

m .x-mzx

-------

т------- 1-------

 

 

 

 

 

Х о2 +У

§ 6.4. Методы детерминистской классификации

Концепцию классификации образов можно выразить в терминах разбиения пространства признаков или отображения пространства признаков в пространство решений. Пусть для каждого входного образа измеряется N признаков, каждое множество из N признаков называют вектором признаков х или точкой в iV-мерном простран­ стве признаков Xçi.

Задача классификации образов заключается в распределении всех возможных векторов (или точек) в пространстве признаков по соответствующим классам образов: пространство признаков раз­ деляется на взаимно непересекающиеся области, каждая из которых соответствует некоторому классу образов. Математическая задача классификации образов может быть сформулирована при использо­

вании разделяющей функции.

 

Пусть имеется т возможных классов образов

= 1 ,2 ,..., т,

х = (жь . . . , х # )т — вектор замеров признаков. Тогда разделяющая функция Dj(x), относящаяся к классу образов o)j, j = 1,2, ...,m , такова, что если входной образ, представленный вектором призна­ ков х, принадлежит классу со^, то величина Di(x) должна быть наибольшей ~ ы{). Для всех значений признака х ~ о* имеем

A ( z ) > Dj(x), = i фj. (6.11)

В пространстве признаков X Q граница разбиений, называемая решающей границей, между областями, относящимися соответ­ ственно к классам u>i и Wj, выражается уравнением Di(x) Dj(x) = = 0. Можно предложить много различных форм для записи функ­ ций Di(x), удовлетворяющих неравенству (6.11).

1. Линейные разделяющие функции. В качестве D i(x) берется линейная комбинация измеренных признаков х\, Х2, ..., хлг, т. е.

N

D i(x)= 2 wkiXk + Wi,N+1, i - 1,2, fc=i

Решающая граница между областями <Oj и OÏJ в пространстве П име­

ет вид

N

 

 

Di(x) - Dj{x) = J ] wkxk + wN + 1= 0;

(6. 12)

fc=i

ГДС Wfç = Wik VJjk,

j =

j Wj9fl[+\.

Уравнение (6.12) является уравнением гиперплоскости. При

N= 2 получаем уравнение прямой линии.

2.Полиномиальные разделяющие функции. Полиномиальная раз­ деляющая функция г-й степени имеет вид

Di(x) = W i\fi(x) + w a f2(x) + ... + wufi{x) + wu i = \,2,

где fj(x), j

= 1,2,

являются формами

xk'ix kl

k l,k 2, .. . , k r = l,2 ,...,N , щ ,п 2, ... ,n r e {0; 1}.

При r = 2 разделяющая функция называется квадратичной. Тогда

fj(x) = xnklx%,

k i,k 2 = 1

,2 ,..., N , щ ,п 2е {0; 1},

и разделяющая функция Di имеет вид

 

N

N -\

N

N

D i(x) =

Wkix \ +

XI

XI

bjkiXjXk + X WjiXj + wl+l,i>

 

k=1

j=\

k—j ■+-1

j =1

m e l = ^ N ( N + 3).

В общем случае границей для квадратичных разделяющих функ­ ций является поверхность второго порядка. В частных случаях это будет гиперсфера, гиперэллипсоид и гиперэллипсоидальный ци­ линдр.

3. Классификатор по минимальному расстоянию. Пусть зада­ но т опорных векторов Ri, i= 1,2, ...,т , где Ri ~ со*. Входной сигнал х предполагают принадлежащим <ÙÙ если расстояние меж­ ду х и Ri, равное ||ж —i?j||, минимально. Это расстояние можно определить, например, следующим образом:

\\x -R i\\ = [ ( x - R in x - R i) ] V 2,

ИЛИ

||ж —.Rj||2 = xrx — xTRi - хЩ + RjRi.

Поскольку произведение х Тх не зависит от г, то разделяющая функ­ ция для классификатора по минимальному расстоянию имеет вид

Di(x) = x TRi + xR j RjRi, i = l,2 ,... ,m .

Это линейная функция (линейный классификатор).

4. Обучение в линейном классификаторе. Введем дополнитель­ ный вектор у = ( х \ , х м , 1)т = (х , 1)т. Пусть в результате наблю­ дений получены два множества дополнительных векторов, принад­ лежащих Ü>I и (02 соответственно. Для разделимых множеств

yrw > 0, у ~

y*W< 0, у ~ 6>2, w = ( w i,...,w N,WM+i)r.

Если классификатор дает ошибочный или неопределенный резуль­ тат при выбранных w, то берут новый вектор весов ь / = w ± а у, а > 0 (поправочное дополнение). Вначале w выбирается произволь­ но. В результате итерационного процесса получаем значение w', которое считается истинным.

§ 6.5. Последовательная решающая модель для классификации образов

Ранее была рассмотрена решающая процедура с фиксирован­ ным объемом выборки. Если стоимость измерений признаков высо­ ка либо требуется сложное оборудование, значительное время или сложные и рискованные операции, уместно применить последова­ тельную решающую процедуру. Последовательный процесс изме­ рений признаков заканчивается (принимается решение), когда до­ стигнута достаточная или необходимая точность классификации.

Естественно, признаки должны быть расположены в таком по­ рядке, чтобы измерения давали окончательное решение как можно раньше. Задача упорядочения признаков является специальной за­ дачей в системах последовательного распознавания.

В случае двух классов образов можно применить последова­ тельный критерий отношения вероятностей Вальда (п. к. о. в.). Он построен для решения задачи о выборе между двумя простыми гипотезами. Пусть случайная величина х обладает функцией плот­ ности р{х, 0), где 0 — испытуемый параметр. Задача заключается в проверке гипотезы Но о том, что 0 = 0о, против гипотезы Н \, со­ стоящей в том, что 0 = 0]. Критерий выбирает гипотезу Но или Н\ на основе наблюдений х \,Х 2, ... ,х п. Допустим, что если гипо­ теза Но истинна, мы хотим получить решение в пользу выбора гипотезы Но с вероятностью, не меньшей 1 —а, а если истинна

гипотеза Н \, то решение в пользу выбора гипотезы Н\ должно иметь вероятность, не меньшую 1 —р.

Для последовательного критерия с постоянным объемом выбор­ ки оптимальное решение этой задачи можно получить, используя критерий Неймана—Пирсона: при данном числе наблюдений п кри­ терий, обеспечивающий наименьшее (3 (наиболее мощный крите­ рий), определяется отношением правдоподобия Хп, имеющим вид

(6.13)

Гипотеза Но принимается или отвергается, когда Хп соответ­ ственно меньше или больше некоторой постоянной. Значение этой постоянной может быть выбрано так, чтобы критерий давал нуж­ ную величину а (ошибку 1-го рода). Однако можно выбрать и так, чтобы критерий имел заданную мощность 1 —р, где р — ошибка 2-го рода.

Последовательный критерий отношения вероятностей аналоги­ чен изложенному критерию и обладает аналогичными оптимальны­ ми свойствами: наблюдения производят до тех пор, пока выпол­ няется условие В < Хп < А, где А и В соответственно верхняя и нижняя границы (чйсла). Наблюдения прекращаются и прини­ мается решение в пользу выбора гипотезы Но, как только будет выполнено неравенство Хп ^ А ; решение принимается в пользу вы­ бора гипотезы Hi, когда Хп < В. Постоянные А и В называются соответственно верхним и нижним порогами {останавливающими границами). Они могут быть выбраны так, чтобы приблизительно получить заданные вероятности ошибок а и р .

Пусть на n -м шаге оказалось, что

(6.14)

Это указывает на окончательное решение о принятии гипоте зы Но. Из условий (6.13) и (6.14) получим

Р(х IН0) = Ар(х | Я ,),

что эквивалентно равенству

(6.15)

Интегралы берутся по области, которая содержит все замеры, при­ водящие к выбору гипотезы Щ . Из условия (6.15) получим 1 — а = = 43.

Пусть теперь Хп = В; тогда а = В {\ —(3). Отсюда имеем

1 - а

а

Р ’

В =

Эти соотношения строго выполняются для непрерывных замеров; для дискретных замеров могут быть получены вероятности ошибок, отличающиеся от ос и р вследствие некоторого превышения порогов. Это отличие несущественно. Тем не менее, в общем случае

А ^

1 - а

В ^

а

 

Р ’

~

р'

Рассмотрим пример того, как изменяются решающие границы при п замерах признаков.

Пример. Пусть x i, i 2, ..., хп — независимые замеры признаков

с одномерной гауссовой функцией плотности p(xj | со*), j

= 1,2,

..., п,

г = 1,2, со средним значением т* и дисперсией а2. Для про­

стоты будем вычислять In Хп. После получения признака х\

имеем

 

 

 

 

(xi -ТП|)2 ч

 

 

 

 

р(х 11сор

(оч/2х)-' ехр{

2ст2

/

 

 

 

lnXi

= In р(х 1| 0>2)

= In

(xi - т 2)21

 

 

 

 

 

 

(aV2ri)_1 ехр

{

2о2

J

 

 

 

 

 

 

1

j - т 2)х 1 -

у ( т [

-

т 2) .

 

 

 

а 2

Сравниваем In Xi с In А и In В. Если

 

 

 

 

 

 

 

 

xi > _ °2_ In А + 4-(m i + т г \

 

 

 

 

 

 

т\ —тп2

2

 

 

 

 

 

то х ~ О]. Если

 

ст2

1

 

 

 

 

 

 

 

xi

+ m 2),

 

 

 

 

 

-----------ln В +

—(mi

 

 

 

 

 

 

ТП\ — 7712

2

 

 

 

 

 

ТО X

~ 6)2 - Если

 

 

 

 

 

 

 

 

— ----------In В +

- т { т \ + 777-2) < Х \ <

------------ In А +

“ (774

+

г п г ) ,

777-1

— 772-2

2.

 

ГП\ — ТП^

 

2

 

 

то следует продолжить измерения. После второго измерения по­ лучим

In Х2 = In

р(д^11<0i)

ln P (S 2!(■>!) =

т\ ш 2

[xi + Х 2 - (mi + m 2)].

р(Х] I 0)2)

р(х2 I 0)2)

сг2

 

Если

 

а2

 

 

 

 

 

 

 

 

 

xi + х2 > — 1----- In А + mi + m 2,

 

 

7771 — 7712

 

 

 

то х ~ о>1. Если

Q2

 

 

 

 

 

 

 

 

 

Xi + х2 ^ -----------In В + mi + m 2,

ТО X ~ 0)2. Если

7711 — Ш 2

 

 

 

 

 

 

 

а2

ln В + тп\ + гп г< х\ + Х2 <

 

In А + тп\ + m 2,

7771 — 7712

 

 

 

777-1

— 7712

то проводится новое измерение хз и т.д. На n -м шаге процесса имеем

 

A

p ( X i 16>i)

 

 

Т П \ - Т П 2

А

у (mi + m 2)

1пХ” " Х - 1п^ Л

^ ) --------3

-

XJ

 

 

 

г=1

 

 

 

 

 

 

г=1 L

 

 

Процедура классификации образов o)j и и>2 будет следующей.

Если

 

 

 

 

 

 

 

 

 

 

 

2

Яг >

— 7772

In Л + -^(mi + m 2),

(6.16)

 

г=1

 

7711

 

 

 

 

 

 

 

 

 

 

 

 

 

 

то х ~ o)i. Если

 

 

 

 

 

 

 

 

 

 

п

^

 

о2

~

lnВ +

п

 

(6.17)

 

2

7771

 

 

—(mi +тг),

 

г=1

 

— 7772

 

 

 

 

 

 

 

 

 

 

 

 

 

 

ТО X * (02. Если

 

 

 

 

 

 

 

 

 

_2

 

 

 

 

 

 

 

 

 

 

------In В + ^-(тп\ + т г )

< V

х* < — ------ In А + ^ (m i

+ т г ),

mi тг т2

2

 

 

'

 

JLJ

m \—m2

2

 

г=1

то измеряется xn+i.

Решающие границы, определяемые формулами (6.16), (6.17), при знаках равенства представляют собой две параллельные гипер­ плоскости в пространстве признаков. Ширина области неопреде-

о2 , А о2 п

ленности р авн а -----------In —, т. е. пропорциональна------------. При

т \ - т 2 В

т,\-т2

заданных вероятностях ошибок а и р среднее число измерений, необходимое для завершения процесса, пропорционально о2 и об­ ратно пропорционально разности т,\ т%.

Последовательный критерий отношения вероятностей дает ми­ нимум среднего числа наблюдений; математическое ожидание сред­ него числа наблюдений запишется в виде

. . . .

(1 — a) In А + а In В

M l(n)------------ МКг)--------- •

когда Но истинно, и

 

 

М2(п ) =

(31пА + (1~ (3)1пВ

2W

 

М2(z)

 

р п ( х

I Н о )

когда Н\ истинно, где z = in — —

 

Pn(s I Hi)

Процедура п. к. о. в. по существу не зависит от априорных веро­ ятностей Р(Hi), i = 0,1, хотя вероятность ошибок зависит от апри­ орных данных.

Иногда необходимо прервать процедуру наблюдений и принять решение при п = N . Это может быть сделано усечением последо­ вательного процесса при n = N : выполняется обычная процедура п. к. о. в. либо до получения решения, либо до N -TO шага. Если на N -м шаге решение не получено, принимается гипотеза Но при XJV > 1 или принимается гипотеза Hi при Xw < 1.

Для большого числа гипотез предложен обобщенный последо­ вательный критерий отношения вероятностей (о. п. к. о. в.). Пусть имеется т гипотез. На n -м шаге обобщенные последовательные отношения вероятностей для каждой гипотезы определяются сле­ дующим образом:

Unix I Hi) =

Pnix I Hi)

i = 1 ,2,..., m.

1 1/m 9

 

Y \p n(x\H q)

 

 

.9=1

 

Решающее правило о. п.к. о. в. состоит в следующем. Отношение Un {x | Hi) сравнивается с останавливающей границей A iH {) для гипотезы Н{. Гипотеза Щ исключается из рассмотрения, если U n ix |H i) < A iH î), i = 1,2,..., m . Останавливающая граница для

гипотезы Щ определяется соотношением

A(Hi) =

1

€ц

г =

1,2,.. , т ,

 

1 Wm ’

 

 

 

 

ПО-е»,)

U=i

где вщ — вероятность принятия гипотезы Hi, когда в действитель­ ности истинна гипотеза Нч.

После исключения гипотезы Щ общее число гипотез становит­ ся на единицу меньше и составляется новое множество обобщен­ ных последовательных отношений вероятностей. Последовательно исключая гипотезы, получим одну, которая и принимается за истин­ ную. При тп = 2 о. п. к. о. в. эквивалентен п. к. о. в. и сохраняет его свойство оптимальности: при заданных а и р не существует другой процедуры, которая обладает меньшими значениями вероятностей ошибок или среднего риска и дает выигрыш в среднем числе из­ мерений признаков по сравнению с последовательной процедурой классификации.

Между границами А и В заключена область неопределенности, в которой не может быть принято окончательное решение (нулевая область).

Вклассификации образов на основе о. п. к. о. в. при п = N вход­ ной образ полагают принадлежащим тому классу, обобщенное по­ следовательное отношение вероятностей для которого имеет наи­ большее значение.

Впоследовательном анализе при повышении верхнего порога А

ипонижении нижнего порога В по меньшей мере одна из вероятно­ стей ошибок, а или (3, уменьшается, если новый п. к. о. в. не оказы­ вается эквивалентен старому. Поэтому можно начинать процедуру

сотносительно больших значений порогов, и, постепенно умень­ шая их, получим среднее значение испытаний не таким большим, как в случае, когда в течение всего процесса используется малая величина порога.

§6.6. Байесовская последовательная решающая процедура

Используем здесь определения, данные в § 6.3.

При фиксированном объеме выборки и испытании тп статисти­ ческих гипотез оптимальное решение d* выбирается так, чтобы

минимизировать величину средних потерь

771

p(P,d) = Y l P(Hi)p(Hi,d), i=1

где р(Ни d) = J L(Hu d)p(x \ H{) d(ù — условные потери (условный

a

риск). Другими словами, требуется найти

р(Р, d*) = min р(Р, di).

г

При

 

 

 

 

 

0,

если

г = j,

 

 

L{Hi, d j) — 1 bij =

если

i ^ j ,

 

 

1,

 

байесовским решением будет d* =di, если выполнены условия

Р(Щр(х |Щ) > P(Hj)p(x I Hj),

j = 1 ,2 , . . . , m.

 

Если Л =

p(x I Hi)

 

P(Hj)

I TT , имеем решение

a* = di при A ^ .T; .

для

j = 1,2,

p(X\Hj)

 

 

 

 

 

 

 

На каждом шаге, используя предварительную информацию, де­ лают выбор: принять окончательное решение или провести сле­ дующее наблюдение. Проблема состоит в стоимости наблюдений. На каждом шаге приходится соизмерять стоимость выполнения бу­ дущих наблюдений со средним выигрышем, даваемым принятым

решением.

 

Пусть имеем т гипотез

с априорными вероятностями Р (# 0 ,

i = 1,2, ... , т. Для любого

варианта последовательной выборки

Sj е S, j = 1,..., N , определим риск:

тN р

Р(Ни d) = J ] Р(Hi) J ] [Cj(x) + L(HU d3{x)))p(x IЩ) dx,

где Cj(x) стоимость наблюдений х \,х г, ...,Xj, dj (ж) —решающая функция, основанная на замерах х \, Х2, ■.., Xj.

Далее рассмотрим последовательные решения для двухточечной

модели. Пусть проводятся

поочередно наблюдения х \,Х 2, ■■■,х п

над неизвестным объектом.

Наблюдения подчиняются некоторым

Соседние файлы в папке книги