Добавил:
Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:
Ответы к экзамену (Кафтасьев).docx
Скачиваний:
142
Добавлен:
27.05.2014
Размер:
2.7 Mб
Скачать

20.Классификация систем распознавания образов.

1) По степени однородности признаков

а) Простые

используются однородная информация, т.е на исходном множестве объектов нет разбиения на конечное число подмножеств (классов), и используется единственная метрика

б) Сложные

  • Одноуровневые

  • Многоуровневые

Многоуровневые сложные системы распознавания отличаются от одноуровневых тем, что не все признаки от разнородных физических измерителей используются непосредственно для решения задачи распознавания, например на основе объединения признаков нескольких измерителей и соответствующей обработки могут быть получены вторичные признаки, которые могут как использоваться в АК, так и сами в свою очередь служить основой для объединения

2) По количеству исходной априорной информации

Построение и функционирование систем распознавания связано с накоплением и анализом априорной информации.

а) Системы без обучения

Количество априорной информации достаточно для построения описания классов объектов Ω1 ..., Ωm на языке априорного словаря признаков х1, ..., xN.

б) Системы с обучением

Использование методов обучения для построения систем распознавания необходимо в случае, когда отсутствует полная первоначальная априорная информация. Ее объем позволяет подразделить объекты на классы и определить априорный словарь признаков. Однако объем априорной информации недостаточен для того, построить описания классов объектов путем непосредственной обработки исходных данных

в) Самообучающиеся системы

В данном случае число классов заранее не известно, поэтому информации о принадлежности каких-либо объектов к тем или другим классам нет и единственный путь формирования системы распознавания — применение методов самообучения, кластер-анализа, автоматической классификации без учителя. К самообучению приходится прибегать и тогда, обучающая выборка не дана — имеется лишь некоторая совокупность объектов и значения признаков.

3) По типу алгоритма обработки признаков информации

а) Детерминированные

б) Вероятностные

между признаками объектов и классами, к которым они могут быть отнесены, существуют вероятностные связи

в) Логические

г) Структурные (Лингвистические)

Выделяется набор исходных понятий — типичных фрагментов, и их свойств. Они образуют словарь, позволяющий строить различные логические высказывания, иногда называемые предположениями

д) Комбинированные

  1. Основные непараметрические методы распознавания образов

Для некоторых задач бывает априорно известно, что образы характеризуются рядом параметров. Параметрический подход может основываться на дискриминантных функциях, связанных с классом плотностей вероятностей, определяемых относительно малым числом параметров. С другой стороны, существуют другие классификаторы, в которых не делается никаких предположений о характеризующих параметрах. Несмотря на то, что параметризация дискриминантных функций используется в непараметрических методах, не предполагается соответствующей формы распределения.

Каждый образ отображается в виде точки в пространстве образов. Образы, относящиеся к разным классам, попадают в разные области в пространстве классов и, соответственно, могут быть разделены разделяющими поверхностями.

Разделяющие поверхности, называемые решающими поверхностями, могут быть формально определены как поверхности вn-мерном пространстве, которые используются, чтобы разделить известные образы на их соответствующие категории и используются для классификации неизвестных образов.

Классификация по минимуму расстояния

Решающее правило, используемое в этом методе, имеет вид:

xWj , если D(x, zj)=D(x, zk), k=1,…M

где D() — метрика, называемая евклидовым расстоянием образа х от zk, и zk — есть эталонное среднее (или центр класса) для класса Wk.

Тогда D(x, zk) = |x - zk|

тzk -½zkтzk], к=1,2,…М

Последнее выражение определяет классификатор по минимуму расстояния. ДФ, используемая в классификаторе, может быть выражена как

dk(Х) = хтzk -½zkтzk = хтzk -½ |zk|2= хтW

Отметим, что классификатор по минимуму расстояния использует для представления каждого класса одну точку.Такое представление будет справедливым для случая нормального распределения с равными дисперсиями по каждой координате.

Т.о., представление класса одной точкой не является хорошим решением. Если представить каждую категорию образов с помощью мультипрототипов, вместо единичного прототипа, тогда

D(x,Wk)=[D(x,zkm)], (2.21)

Где к представляет к-ую категорию, m — номер m-го прототипа, Nк— число прототипов для категории к.

Это уравнение дает наименьшее расстояние между Х и каждым прототипом из Wk.

Тогда решающее правило становится таким

x Wj, если D(x, Wj)=[ D(x,Wk)],

где D(x, Wk) дается выражением (2.21) ДФ изменяется соответственно так

dk(Х) =тzkm -½|zkm|2], к=1,2,…М

Говорят, что классы линейно разделимы, если они классифицируются какой-либо линейной функцией

Кусочно-линейные дискриминантные функции (КЛД)

КЛД позволяют решить эффективно проблемы классификации для линейно неразделимого случая.

Определение КЛД и правило ближайшего соседства

Кусочно-линейная функция — это функция, которая линейна в отдельных областях пространства признаков.

ДФ определяется как

она состоит в том, что мы находим максимум dkm(x) среди прототипов класса к, гдеNk– число прототипов в классе к и

Три различных случая классификации образов могут быть перечислены.

Случай 1.

Каждый класс образов отделяется от других классов одной решающей поверхностью

Случай 2

Каждый касс отделяется от другого класса попарно разделяющей решающей поверхностью. Области неопределенности также могут существовать. В этом случае нет класса, отделяемого от другого одной решающей поверхностью от других.