- •5. Сетевые модели представления знаний. Семантические сети. Вычислительные сети.
- •Формализация
- •2. Языки инженерии знаний.
- •3 Средства автоматизации разработки экспертных систем.
- •20.Классификация систем распознавания образов.
- •Случай 3.
- •2.4.Нелинейные дискриминантные функции
- •2.4. Ф-машины
- •Потенциальные функции как дф
- •1)Постановка задачи
- •Отрицательный знак перед rk(X) выбирается так чтобы dk(X) представляла наиболее правдоподобный класс . То-есть чемь меньше rk(X) тем более правдоподобно , что Xk . (далее менее важное до п.2)
- •3) Принятие решения по максимуму правдоподобия
- •4) Ошибки классификации
- •1) Проблема выбора информативных признаков
1)Постановка задачи
Решается задача классификации, то есть определения некоторого х к одному из классов i.(обозначим для читабельности wi, i – нижний индекс, т.е. w и далее одно и то же)
Классы расматриваются как подмножества одного общего пространства(1,2, ... n-мерного). х тоже можно рассматривать как точку в этом пространстве. задача, чтобы х попало в то, подмножество-класс, к которому он в действительности принадлежит.
Примем следующие обозначения:
p(wi) – априорная вероятность класса wi - известно или может быть оценено .
p(x/ wi ) – функция правдоподобия класса wi, то есть функция плотности вероятности х при заданном состоянии природы wi - известно или может быть непосредственно оценено из обучающей последовательности.
p(wi /x) вероятность, что х получено из класса wi - обычно неизвестно.
Функция потерь Lij – потери, т.е. стоимость принятия решения, что xwj, когда в действительности xwi. Задача – минимизировать средние потери.
Условные средние потери(или условный средний риск): rk(x)
rk(x)=- это средние или ожидаемые потери ошибочной классификацииx из класса k , при отнесении его к некоторым другим классам i , i=1, 2,….M и i k.
Задачей классификатора тогда является найти оптимальное решение которое минимизирует средний риск или стоимость . Решающее правило тогда состоит из следующих шагов :
Вычислить ожидаемые потери ri(x) решения , что xi i, i=1,2, . . , M.
2. Решить , что xk если rk(x) ri(x) i k.
Соответствующая дискриминантная функция тогда имеет вид
dk(x) = - rk(x)
Отрицательный знак перед rk(X) выбирается так чтобы dk(X) представляла наиболее правдоподобный класс . То-есть чемь меньше rk(X) тем более правдоподобно , что Xk . (далее менее важное до п.2)
L=,
где Lij=0, i=1,2,……M , так как неправильная классификация в этом случае отсутствует; в то время как Lij=1 соответствует неправильной классификации xk, когда в действительности xi , i=1,2,….,M, i k.
Пример:
Для двух классовой проблемы Lik = L21, где i=2, k=1.
Это означает , что x может принадлежать 2 , но неправильно классифицируется как 1. Lik = L12 , когда i=1, k=2, означает что x может принадлежать 1 , но будет классифицироваться как 2. Lik =0 когда i=k.
Тогда мы имеем
L =
Предположим , что 1 – класс своего самолета и 2 – класс вражеского самолета, тогда несомнено L21 L12 так как L12 это ложная тревога, а L21 соответствует опасности.
Во многих случаях считается L12 = L12, что соответствует симметрической
функции потерь.
2) Байесовская дискриминантная функция
По правилу Байеса мы можем написать
где , вероятность того , чтоx без указания класса, к которому он принадлежит.
rk(x)=
Так как здесь является общим для всехrj(x), j= 1, ……., M, мы можем убрать его из уравнения среднего риска и искать только следующий минимум
для получения наилучшего решения среди возможных решений. Тогда Байесовская дискриминантная функция получается из dk(x) = - rk(x)
Классификатор с такой минимизацией называется Байесовским классификатором, дающим оптимальные характеристики со статистической точки зрения .