книги / Математические методы принятия решений
..pdfРассмотрим решающую процедуру с фиксированным объемом выборки.
Пример 2. Найти решающую границу для « i и о*2, если
, | ч |
1 |
f 1 (х —МЛ21 . |
В общем случае (при о\ ф ст2) согласно соотношению (6.10) ре шающая граница определяется из условия
или
P(C0l)
In
P(C02)
|
p(“ i) |
, |
P ^ l^ l) |
Л |
||
In fr— |
- + In |
—r—------ = 0, |
||||
|
P(W2) |
|
P(x Ito2) |
|
||
, |
a, |
|
( i - M i )1 |
, |
(x - Mi)1 |
|
+ l n - |
-------2^ |
+ |
5 3 |
|||
' |
0\ |
|
|
|
|
2ct2 |
„
= 0 -
При ai = a 2 = o получим
In ^ - - ' ' — (Mi - М г - 2x) = 0, P((02) 2CT
откуда решающая граница для 6)i и а>2 определяется следующим
°бразом: |
„ |
P W |
|
|
0 1П |
Р(б>2) |
, М\+ М2 |
х = |
1 Г г - М 7 |
2 |
Пример 3. Найти решающую границу для плотности двумер ного гауссова распределения р(я I “ г), г = 1, 2, со средними век торами (m ix,m iy), i = 1, 2, и с общей ковариационной матрицей
К = ( а' |
М |
при p(w,) = Р(«г)- Разделяющая граница в данном |
\ 0 |
о2/ |
„„„«ей уравнение которой имеет вид |
случае будет прямой линией, уг |
( \ (о 12 о \ / mu - т2Л - |
|
|
|
|
т\х ~ ТП2х |
|
|
|
|
miî, - m 2ÿ, |
|
|
|
|
1 / m i x + ^ A ( а 1 0 \ /m .s- ^ Л = о, |
||||
- 2 (пня + тгу) |
' 0 |
° 2' ' |
\ да,у ” miV |
|
или |
|
|
|
|
1 |
m ll - |
™2х , |
Ш1» mM |
= 0. |
m .x-mzx |
------- |
т------- 1------- |
|
|
|
|
|
|
Х о2 +У
§ 6.4. Методы детерминистской классификации
Концепцию классификации образов можно выразить в терминах разбиения пространства признаков или отображения пространства признаков в пространство решений. Пусть для каждого входного образа измеряется N признаков, каждое множество из N признаков называют вектором признаков х или точкой в iV-мерном простран стве признаков Xçi.
Задача классификации образов заключается в распределении всех возможных векторов (или точек) в пространстве признаков по соответствующим классам образов: пространство признаков раз деляется на взаимно непересекающиеся области, каждая из которых соответствует некоторому классу образов. Математическая задача классификации образов может быть сформулирована при использо
вании разделяющей функции. |
|
Пусть имеется т возможных классов образов |
= 1 ,2 ,..., т, |
х = (жь . . . , х # )т — вектор замеров признаков. Тогда разделяющая функция Dj(x), относящаяся к классу образов o)j, j = 1,2, ...,m , такова, что если входной образ, представленный вектором призна ков х, принадлежит классу со^, то величина Di(x) должна быть наибольшей (х ~ ы{). Для всех значений признака х ~ о* имеем
A ( z ) > Dj(x), = i фj. (6.11)
В пространстве признаков X Q граница разбиений, называемая решающей границей, между областями, относящимися соответ ственно к классам u>i и Wj, выражается уравнением Di(x) — Dj(x) = = 0. Можно предложить много различных форм для записи функ ций Di(x), удовлетворяющих неравенству (6.11).
1. Линейные разделяющие функции. В качестве D i(x) берется линейная комбинация измеренных признаков х\, Х2, ..., хлг, т. е.
N
D i(x)= 2 wkiXk + Wi,N+1, i - 1,2, fc=i
Решающая граница между областями <Oj и OÏJ в пространстве П име
ет вид |
N |
|
|
Di(x) - Dj{x) = J ] wkxk + wN + 1= 0; |
(6. 12) |
fc=i
ГДС Wfç = Wik VJjk, |
j = |
j Wj9fl[+\. |
Уравнение (6.12) является уравнением гиперплоскости. При
N= 2 получаем уравнение прямой линии.
2.Полиномиальные разделяющие функции. Полиномиальная раз деляющая функция г-й степени имеет вид
Di(x) = W i\fi(x) + w a f2(x) + ... + wufi{x) + wu i = \,2,
где fj(x), j |
= 1,2, |
являются формами |
xk'ix kl |
k l,k 2, .. . , k r = l,2 ,...,N , щ ,п 2, ... ,n r e {0; 1}. |
При r = 2 разделяющая функция называется квадратичной. Тогда
fj(x) = xnklx%, |
k i,k 2 = 1 |
,2 ,..., N , щ ,п 2е {0; 1}, |
||
и разделяющая функция Di имеет вид |
||||
|
N |
N -\ |
N |
N |
D i(x) = |
Wkix \ + |
XI |
XI |
bjkiXjXk + X WjiXj + wl+l,i> |
|
k=1 |
j=\ |
k—j ■+-1 |
j =1 |
m e l = ^ N ( N + 3).
В общем случае границей для квадратичных разделяющих функ ций является поверхность второго порядка. В частных случаях это будет гиперсфера, гиперэллипсоид и гиперэллипсоидальный ци линдр.
3. Классификатор по минимальному расстоянию. Пусть зада но т опорных векторов Ri, i= 1,2, ...,т , где Ri ~ со*. Входной сигнал х предполагают принадлежащим <ÙÙ если расстояние меж ду х и Ri, равное ||ж —i?j||, минимально. Это расстояние можно определить, например, следующим образом:
\\x -R i\\ = [ ( x - R in x - R i) ] V 2,
ИЛИ
||ж —.Rj||2 = xrx — xTRi - хЩ + RjRi.
Поскольку произведение х Тх не зависит от г, то разделяющая функ ция для классификатора по минимальному расстоянию имеет вид
Di(x) = x TRi + xR j — RjRi, i = l,2 ,... ,m .
Это линейная функция (линейный классификатор).
4. Обучение в линейном классификаторе. Введем дополнитель ный вектор у = ( х \ , х м , 1)т = (х , 1)т. Пусть в результате наблю дений получены два множества дополнительных векторов, принад лежащих Ü>I и (02 соответственно. Для разделимых множеств
yrw > 0, у ~
y*W< 0, у ~ 6>2, w = ( w i,...,w N,WM+i)r.
Если классификатор дает ошибочный или неопределенный резуль тат при выбранных w, то берут новый вектор весов ь / = w ± а у, а > 0 (поправочное дополнение). Вначале w выбирается произволь но. В результате итерационного процесса получаем значение w', которое считается истинным.
§ 6.5. Последовательная решающая модель для классификации образов
Ранее была рассмотрена решающая процедура с фиксирован ным объемом выборки. Если стоимость измерений признаков высо ка либо требуется сложное оборудование, значительное время или сложные и рискованные операции, уместно применить последова тельную решающую процедуру. Последовательный процесс изме рений признаков заканчивается (принимается решение), когда до стигнута достаточная или необходимая точность классификации.
Естественно, признаки должны быть расположены в таком по рядке, чтобы измерения давали окончательное решение как можно раньше. Задача упорядочения признаков является специальной за дачей в системах последовательного распознавания.
В случае двух классов образов можно применить последова тельный критерий отношения вероятностей Вальда (п. к. о. в.). Он построен для решения задачи о выборе между двумя простыми гипотезами. Пусть случайная величина х обладает функцией плот ности р{х, 0), где 0 — испытуемый параметр. Задача заключается в проверке гипотезы Но о том, что 0 = 0о, против гипотезы Н \, со стоящей в том, что 0 = 0]. Критерий выбирает гипотезу Но или Н\ на основе наблюдений х \,Х 2, ... ,х п. Допустим, что если гипо теза Но истинна, мы хотим получить решение в пользу выбора гипотезы Но с вероятностью, не меньшей 1 —а, а если истинна
гипотеза Н \, то решение в пользу выбора гипотезы Н\ должно иметь вероятность, не меньшую 1 —р.
Для последовательного критерия с постоянным объемом выбор ки оптимальное решение этой задачи можно получить, используя критерий Неймана—Пирсона: при данном числе наблюдений п кри терий, обеспечивающий наименьшее (3 (наиболее мощный крите рий), определяется отношением правдоподобия Хп, имеющим вид
(6.13)
Гипотеза Но принимается или отвергается, когда Хп соответ ственно меньше или больше некоторой постоянной. Значение этой постоянной может быть выбрано так, чтобы критерий давал нуж ную величину а (ошибку 1-го рода). Однако можно выбрать и так, чтобы критерий имел заданную мощность 1 —р, где р — ошибка 2-го рода.
Последовательный критерий отношения вероятностей аналоги чен изложенному критерию и обладает аналогичными оптимальны ми свойствами: наблюдения производят до тех пор, пока выпол няется условие В < Хп < А, где А и В —соответственно верхняя и нижняя границы (чйсла). Наблюдения прекращаются и прини мается решение в пользу выбора гипотезы Но, как только будет выполнено неравенство Хп ^ А ; решение принимается в пользу вы бора гипотезы Hi, когда Хп < В. Постоянные А и В называются соответственно верхним и нижним порогами {останавливающими границами). Они могут быть выбраны так, чтобы приблизительно получить заданные вероятности ошибок а и р .
Пусть на n -м шаге оказалось, что
(6.14)
Это указывает на окончательное решение о принятии гипоте зы Но. Из условий (6.13) и (6.14) получим
Р(х IН0) = Ар(х | Я ,),
что эквивалентно равенству
(6.15)
Интегралы берутся по области, которая содержит все замеры, при водящие к выбору гипотезы Щ . Из условия (6.15) получим 1 — а = = 43.
Пусть теперь Хп = В; тогда а = В {\ —(3). Отсюда имеем
1 - а |
а |
Р ’ |
В = |
Эти соотношения строго выполняются для непрерывных замеров; для дискретных замеров могут быть получены вероятности ошибок, отличающиеся от ос и р вследствие некоторого превышения порогов. Это отличие несущественно. Тем не менее, в общем случае
А ^ |
1 - а |
В ^ |
а |
|
Р ’ |
~ |
р' |
Рассмотрим пример того, как изменяются решающие границы при п замерах признаков.
Пример. Пусть x i, i 2, ..., хп — независимые замеры признаков
с одномерной гауссовой функцией плотности p(xj | со*), j |
= 1,2, |
||||||||
..., п, |
г = 1,2, со средним значением т* и дисперсией а2. Для про |
||||||||
стоты будем вычислять In Хп. После получения признака х\ |
имеем |
||||||||
|
|
|
|
(xi -ТП|)2 ч |
|
|
|
||
|
р(х 11сор |
(оч/2х)-' ехр{ |
2ст2 |
/ |
|
|
|
||
lnXi |
= In р(х 1| 0>2) |
= In |
(xi - т 2)21 |
|
|
|
|||
|
|
|
(aV2ri)_1 ехр |
{ |
2о2 |
J |
|
|
|
|
|
|
1 |
(т j - т 2)х 1 - |
у ( т [ |
- |
т 2) . |
||
|
|
|
а 2 |
||||||
Сравниваем In Xi с In А и In В. Если |
|
|
|
|
|
|
|||
|
|
xi > _ °2_ In А + 4-(m i + т г \ |
|
|
|
||||
|
|
|
т\ —тп2 |
2 |
|
|
|
|
|
то х ~ О]. Если |
|
ст2 |
1 |
|
|
|
|
|
|
|
|
xi |
+ m 2), |
|
|
|
|||
|
|
-----------ln В + |
—(mi |
|
|
|
|||
|
|
|
ТП\ — 7712 |
2 |
|
|
|
|
|
ТО X |
~ 6)2 - Если |
|
|
|
|
|
|
|
|
— ----------In В + |
- т { т \ + 777-2) < Х \ < |
— ------------ In А + |
“ (774 |
+ |
г п г ) , |
||||
777-1 |
— 772-2 |
2. |
|
ГП\ — ТП^ |
|
2 |
|
|
то следует продолжить измерения. После второго измерения по лучим
In Х2 = In |
р(д^11<0i) |
ln P (S 2!(■>!) = |
т\ ш 2 |
[xi + Х 2 - (mi + m 2)]. |
|
р(Х] I 0)2) |
р(х2 I 0)2) |
сг2 |
|
||
Если |
|
а2 |
|
|
|
|
|
|
|
|
|
|
xi + х2 > — 1----- In А + mi + m 2, |
||||
|
|
7771 — 7712 |
|
|
|
то х ~ о>1. Если |
Q2 |
|
|
|
|
|
|
|
|
|
|
|
Xi + х2 ^ -----------In В + mi + m 2, |
||||
ТО X ~ 0)2. Если |
7711 — Ш 2 |
|
|
|
|
|
|
|
|
||
а2 |
ln В + тп\ + гп г< х\ + Х2 < |
|
In А + тп\ + m 2, |
||
7771 — 7712 |
|
||||
|
|
777-1 |
— 7712 |
то проводится новое измерение хз и т.д. На n -м шаге процесса имеем
|
A |
p ( X i 16>i) |
|
|
Т П \ - Т П 2 |
А |
у (mi + m 2) |
|||
1пХ” " Х - 1п^ Л |
^ ) --------3 |
- |
||||||||
XJ |
|
|
||||||||
|
г=1 |
|
|
|
|
|
|
г=1 L |
|
|
Процедура классификации образов o)j и и>2 будет следующей. |
||||||||||
Если |
|
|
|
|
|
|
|
|
|
|
|
2 |
Яг > |
„ |
— 7772 |
In Л + -^(mi + m 2), |
(6.16) |
||||
|
г=1 |
|
7711 |
|
|
|
|
|||
|
|
|
|
|
|
|
|
|
|
|
то х ~ o)i. Если |
|
|
|
|
|
|
|
|
|
|
|
п |
^ |
|
о2 |
~ |
lnВ + |
п |
|
(6.17) |
|
|
2 |
7771 |
|
|
—(mi +тг), |
|||||
|
г=1 |
|
— 7772 |
|
|
|
|
|||
|
|
|
|
|
|
|
|
|
|
|
ТО X * (02. Если |
|
|
|
|
|
|
|
|
|
|
_2 |
|
|
|
|
|
|
|
|
|
|
------In В + ^-(тп\ + т г ) |
< V |
х* < — ------ In А + ^ (m i |
+ т г ), |
|||||||
mi —тг т2 |
2 |
|
|
' |
|
JLJ |
m \—m2 |
2 |
|
г=1
то измеряется xn+i.
Решающие границы, определяемые формулами (6.16), (6.17), при знаках равенства представляют собой две параллельные гипер плоскости в пространстве признаков. Ширина области неопреде-
о2 , А о2 п
ленности р авн а -----------In —, т. е. пропорциональна------------. При |
|
т \ - т 2 В |
т,\-т2 |
заданных вероятностях ошибок а и р среднее число измерений, необходимое для завершения процесса, пропорционально о2 и об ратно пропорционально разности т,\ —т%.
Последовательный критерий отношения вероятностей дает ми нимум среднего числа наблюдений; математическое ожидание сред него числа наблюдений запишется в виде
. . . . |
(1 — a) In А + а In В |
|
M l(n)------------ МКг)--------- • |
||
когда Но истинно, и |
|
|
М2(п ) = |
(31пА + (1~ (3)1пВ |
|
2W |
|
М2(z) |
|
р п ( х |
I Н о ) |
когда Н\ истинно, где z = in — — |
• |
|
|
Pn(s I Hi) |
Процедура п. к. о. в. по существу не зависит от априорных веро ятностей Р(Hi), i = 0,1, хотя вероятность ошибок зависит от апри орных данных.
Иногда необходимо прервать процедуру наблюдений и принять решение при п = N . Это может быть сделано усечением последо вательного процесса при n = N : выполняется обычная процедура п. к. о. в. либо до получения решения, либо до N -TO шага. Если на N -м шаге решение не получено, принимается гипотеза Но при XJV > 1 или принимается гипотеза Hi при Xw < 1.
Для большого числа гипотез предложен обобщенный последо вательный критерий отношения вероятностей (о. п. к. о. в.). Пусть имеется т гипотез. На n -м шаге обобщенные последовательные отношения вероятностей для каждой гипотезы определяются сле дующим образом:
Unix I Hi) = |
Pnix I Hi) |
i = 1 ,2,..., m. |
1 1/m 9 |
||
|
Y \p n(x\H q) |
|
|
.9=1 |
|
Решающее правило о. п.к. о. в. состоит в следующем. Отношение Un {x | Hi) сравнивается с останавливающей границей A iH {) для гипотезы Н{. Гипотеза Щ исключается из рассмотрения, если U n ix |H i) < A iH î), i = 1,2,..., m . Останавливающая граница для
гипотезы Щ определяется соотношением
A(Hi) = |
1 |
€ц |
г = |
1,2,.. , т , |
|
1 Wm ’ |
|||
|
|
|
|
ПО-е»,)
U=i
где вщ — вероятность принятия гипотезы Hi, когда в действитель ности истинна гипотеза Нч.
После исключения гипотезы Щ общее число гипотез становит ся на единицу меньше и составляется новое множество обобщен ных последовательных отношений вероятностей. Последовательно исключая гипотезы, получим одну, которая и принимается за истин ную. При тп = 2 о. п. к. о. в. эквивалентен п. к. о. в. и сохраняет его свойство оптимальности: при заданных а и р не существует другой процедуры, которая обладает меньшими значениями вероятностей ошибок или среднего риска и дает выигрыш в среднем числе из мерений признаков по сравнению с последовательной процедурой классификации.
Между границами А и В заключена область неопределенности, в которой не может быть принято окончательное решение (нулевая область).
Вклассификации образов на основе о. п. к. о. в. при п = N вход ной образ полагают принадлежащим тому классу, обобщенное по следовательное отношение вероятностей для которого имеет наи большее значение.
Впоследовательном анализе при повышении верхнего порога А
ипонижении нижнего порога В по меньшей мере одна из вероятно стей ошибок, а или (3, уменьшается, если новый п. к. о. в. не оказы вается эквивалентен старому. Поэтому можно начинать процедуру
сотносительно больших значений порогов, и, постепенно умень шая их, получим среднее значение испытаний не таким большим, как в случае, когда в течение всего процесса используется малая величина порога.
§6.6. Байесовская последовательная решающая процедура
Используем здесь определения, данные в § 6.3.
При фиксированном объеме выборки и испытании тп статисти ческих гипотез оптимальное решение d* выбирается так, чтобы
минимизировать величину средних потерь
771
p(P,d) = Y l P(Hi)p(Hi,d), i=1
где р(Ни d) = J L(Hu d)p(x \ H{) d(ù — условные потери (условный
a
риск). Другими словами, требуется найти
р(Р, d*) = min р(Р, di).
г
При |
|
|
|
|
|
0, |
если |
г = j, |
|
|
L{Hi, d j) — 1 —bij = |
если |
i ^ j , |
|
|
1, |
|
||
байесовским решением будет d* =di, если выполнены условия |
||||
Р(Щр(х |Щ) > P(Hj)p(x I Hj), |
j = 1 ,2 , . . . , m. |
|
||
Если Л = |
p(x I Hi) |
|
P(Hj) |
|
I TT , имеем решение |
a* = di при A ^ .T; . |
для |
||
j = 1,2, |
p(X\Hj) |
|
|
|
|
|
|
|
На каждом шаге, используя предварительную информацию, де лают выбор: принять окончательное решение или провести сле дующее наблюдение. Проблема состоит в стоимости наблюдений. На каждом шаге приходится соизмерять стоимость выполнения бу дущих наблюдений со средним выигрышем, даваемым принятым
решением. |
|
Пусть имеем т гипотез |
с априорными вероятностями Р (# 0 , |
i = 1,2, ... , т. Для любого |
варианта последовательной выборки |
Sj е S, j = 1,..., N , определим риск:
тN р
Р(Ни d) = J ] Р(Hi) J ] [Cj(x) + L(HU d3{x)))p(x IЩ) dx,
где Cj(x) —стоимость наблюдений х \,х г, ...,Xj, dj (ж) —решающая функция, основанная на замерах х \, Х2, ■.., Xj.
Далее рассмотрим последовательные решения для двухточечной
модели. Пусть проводятся |
поочередно наблюдения х \,Х 2, ■■■,х п |
над неизвестным объектом. |
Наблюдения подчиняются некоторым |