Добавил:
Upload Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:
КОНСПЕКТ(ИМС).doc
Скачиваний:
63
Добавлен:
17.09.2019
Размер:
52.58 Mб
Скачать

Методы функций близости

Методы данной группы основаны на использовании функций, оценивающих меру близости между распознаваемым образом с вектором x* = (x*1,….,x*n), и эталонными образами различных классов, представленными векторами xi = (xi1,…, xin), i=1,…,N, где i – номер класса образов.

Процедура распознавания согласно данному методу состоит в вычислении расстояния между точкой распознаваемого образа и каждой из точек, представляющих эталонный образ, т.е. в вычислении всех значений di , i=1,…,N . Образ относится к классу, для которого значение di имеет наименьшее значение среди всех i=1,…,N .

Функция, ставящая в соответствие каждой паре векторов xi, x* вещественное число как меру их близости, т.е. определяющая расстояние между ними может быть достаточно произвольной. В математике такую функцию называют метрикой пространства. Она должна удовлетворять следующим аксиомам:

r(x,y)= r(y,x);

r(x,y) > 0, если x не равен y и r(x,y)=0 если x=y;

r(x,y) <= r(x,z)+ r(z,y)

Перечисленным аксиомам удовлетворяют, в частности, следующие функции

ai=[sum(xijxj*)2]1/2, j=1,2,…n.

bi=sum[abs (xi xj*)], j=1,2,…n.

ci=max abs (xi xj*), j=1,2,…n.

Первая из них называется евклидовой нормой векторного пространства. Соответственно пространства, в которых в качестве метрики используется указанная функция называется Евклидовым пространством.

Часто в качестве функции близости выбирают среднеквадратическую разность координат распознаваемого образа x* и эталона xi, т.е. функцию

di = (1/n) sum(xij xj*)2, j=1,2,…n.

Величина di геометрически интерпретируется как квадрат расстояния между точками в пространстве признаков, отнесенный к размерности пространства.

Часто оказывается, что разные признаки неодинаково важны при распознавании. С целью учета данного обстоятельства при вычислении функций близости разности координат, соответствующие более важным признакам умножают на большие коэффициенты, а менее важным – на меньшие.

В таком случае di = (1/n) sum wj (xij xj*)2, j=1,2,…n,

где wj – весовые коэффициенты.

Введение весовых коэффициентов эквивалентно масштабированию осей пространства признаков и, соответственно растяжению либо сжатию пространства в отдельных направлениях.

Указанные деформации пространства признаков преследуют цель такого размещения точек эталонных образов, которое соответствует наиболее надежному распознаванию в условиях значительного разброса образов каждого класса в окрестности точки эталонного образа.

Группы близких друг другу точек образов (скопления образов) в пространстве признаков называют кластерами, а задачу выделения таких групп – задачей кластеризации.

Задачу выявления кластеров относят к задачам распознавания образов без учителя, т.е. к задачам распознавания в условиях отсутствия примера правильного распознавания.

Методы дискриминантных функций

Идея методов данной группы состоит в построении функций, определяющих в пространстве образов границы, разделяющие пространство на области, соответствующие классам образов. Простейшими и наиболее часто используемыми функциями такого рода являются функции, линейно зависящие от значений признаков. Им в пространстве признаков соответствуют разделяющие поверхности в виде гиперплоскостей. В случае двумерного пространства признаков в качестве разделяющей функции выступает прямая линия.

Общий вид линейной решающей функции задается формулой

d(x)=w1 x1 + w2 x2 +…+ wn xn + wn+1 = Wx+wn

где x - вектор образа, w=( w1, w2,…wn) – вектор весовых коэффициентов.

В случае разбиения на два класса X1 и X2 дискриминантная функция d(x) позволяет осуществить распознавание в соответствии с правилом:

x принадлежит X1, если d(x)>0;

x принадлежит X2, если d(x)<0.

Если d(x)=0, то имеет место случай неопределенности.

В случае разбиения на несколько классов вводится несколько функций. При этом каждому классу образов ставится в соответствие определенная комбинация знаков дискриминационных функций.

Например, если введены три дискриминантные функции, то возможен следующий вариант выделения классов образов:

x принадлежит X1, если d1(x)>0, d2(x)<0, d3(x)<0;

x принадлежит X2, если d(x)<0, d2(x)>0, d3(x)<0;

x принадлежит X3, если d(x)<0, d2(x)<0, d3(x)>0.

При этом считается, что для других комбинаций значений d1(x), d2(x), d3(x) имеет место случай неопределенности.

Разновидностью метода дискриминантных функций является метод решающих функций. В нем при наличии m классов предполагается существование m функций di(x), называемых решающими, таких, что если x принадлежит Xi, то di(x) > dj(x) для всех j не равных i,т.е. решающая функция di(x) имеет максимальное значение среди всех функций dj(x), j=1,...,n..

Иллюстрацией такого метода может служить классификатор, основанный на оценке минимума евклидова расстояния в пространстве признаков между точкой образа и эталоном. Покажем это.

Будем считать, что задано m классов с эталонами xi = (xi1,…, xin), i=1,…,m.

Евклидово расстояние между вектором признаков распознаваемого образа x и вектором эталонного образа определяется формулой ||xix|| = [sum(xijxj)2]1/2, j=1,2,…n.

Вектор x будет отнесен к классу i, для которого значение ||xix*|| минимально.

Вместо расстояния можно сравнивать квадрат расстояния, т.е.

||xix||2 = (xix)( xix)т = x x - 2x xi + xi xi

Поскольку величина x x одинакова для всех i, минимум функции ||xix||2 будет совпадать с максимумом решающей функции

di(x) = 2x xi - xi xi.

то есть x принадлежит Xi, если di(x) > dj(x) для всех j не равных i.

Т.о. машина, классифицирующая по минимуму расстояния, основывается на линейных решающих функциях. Общая структура такой машины, использует решающие функции вида

di (x)=wi1 x1 + wi2 x2 +…+ win xn + wi n+1

Она может быть наглядно представлена соответствующей структурной схемой.

Для машины, осуществляющей классификацию по минимуму расстояния имеют место равенства: wij = -2xij , wi n+1 = xi xi.

Эквивалентное распознавание методом дискриминантных функций может быть осуществлено, если определить дискриминантные функции как разности dij (x)= di (x)‑ dj (x).

Достоинством метода дискриминантных функций является простая структура распознающей машины, а также возможность ее реализации преимущественно посредством преимущественно линейных решающих блоков.

Еще одним важным достоинством метода дискриминаннтных функций является возможность автоматического обучения машины правильному распознаванию по заданной (обучающей) выборке образов.

При этом алгоритм автоматического обучения оказывается весьма простым в сравнении с другими методами распознавания.

В силу указанных причин метод дискриминантных функций завоевал широкую популярность весьма часто используется на практике.