Добавил:
Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:
Ответы к экзамену (Кафтасьев).docx
Скачиваний:
142
Добавлен:
27.05.2014
Размер:
2.7 Mб
Скачать

1)Постановка задачи

Решается задача классификации, то есть определения некоторого х к одному из классов i.(обозначим для читабельности wi, i – нижний индекс, т.е. w и далее одно и то же)

Классы расматриваются как подмножества одного общего пространства(1,2, ... n-мерного). х тоже можно рассматривать как точку в этом пространстве. задача, чтобы х попало в то, подмножество-класс, к которому он в действительности принадлежит.

Примем следующие обозначения:

p(wi) – априорная вероятность класса wi - известно или может быть оценено .

p(x/ wi ) – функция правдоподобия класса wi, то есть функция плотности вероятности х при заданном состоянии природы wi - известно или может быть непосредственно оценено из обучающей последовательности.

p(wi /x) вероятность, что х получено из класса wi - обычно неизвестно.

Функция потерь Lijпотери, т.е. стоимость принятия решения, что xwj, когда в действительности xwi. Задача – минимизировать средние потери.

Условные средние потери(или условный средний риск): rk(x)

rk(x)=- это средние или ожидаемые потери ошибочной классификацииx из класса k , при отнесении его к некоторым другим классам i , i=1, 2,….M и i k.

Задачей классификатора тогда является найти оптимальное решение которое минимизирует средний риск или стоимость . Решающее правило тогда состоит из следующих шагов :

  1. Вычислить ожидаемые потери ri(x) решения , что xi  i, i=1,2, . . , M.

2. Решить , что xk если rk(x) ri(x)  i  k.

Соответствующая дискриминантная функция тогда имеет вид

dk(x) = - rk(x)

Отрицательный знак перед rk(X) выбирается так чтобы dk(X) представляла наиболее правдоподобный класс . То-есть чемь меньше rk(X) тем более правдоподобно , что Xk . (далее менее важное до п.2)

L=,

где Lij=0, i=1,2,……M , так как неправильная классификация в этом случае отсутствует; в то время как Lij=1 соответствует неправильной классификации xk, когда в действительности xi , i=1,2,….,M, i  k.

Пример:

Для двух классовой проблемы Lik = L21, где i=2, k=1.

Это означает , что x может принадлежать 2 , но неправильно классифицируется как 1. Lik = L12 , когда i=1, k=2, означает что x может принадлежать 1 , но будет классифицироваться как 2. Lik =0 когда i=k.

Тогда мы имеем

L =

Предположим , что 1 – класс своего самолета и 2 – класс вражеского самолета, тогда несомнено L21 L12 так как L12 это ложная тревога, а L21 соответствует опасности.

Во многих случаях считается L12 = L12, что соответствует симметрической

функции потерь.

2) Байесовская дискриминантная функция

По правилу Байеса мы можем написать

где , вероятность того , чтоx без указания класса, к которому он принадлежит.

rk(x)=

Так как здесь является общим для всехrj(x), j= 1, ……., M, мы можем убрать его из уравнения среднего риска и искать только следующий минимум

для получения наилучшего решения среди возможных решений. Тогда Байесовская дискриминантная функция получается из dk(x) = - rk(x)

Классификатор с такой минимизацией называется Байесовским классификатором, дающим оптимальные характеристики со статистической точки зрения .