Добавил:
Upload Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:
Шпоры РО.doc
Скачиваний:
31
Добавлен:
28.04.2019
Размер:
529.41 Кб
Скачать

44. Кумулятивный потенциал. Алгоритм итеративного вычисления кумулятивного потенциала.

В начале этапа обучения исходное значение к. п. K0(x) полагается=0. При предъявлении первого образа x1 из обуч. выборки значение к. п. просто = зн-ию потенц. ф-ии для выбороч. образа x1. Потенциал предполагается положительным для образов, принадлежащих классу ω1, и отрицательным для образов, принадлежащих классу ω2.

На k+1 шаге

где коэфф-ты rk+1 при корректирующем члене опр-ся соотношениями

45. Теоремы о сходимости обучения классификации методом потенциальных функций.

Теорема о скорости сходимости алгоритмов обучения.

Пусть (44) — бесконеч. послед-ть обучающих образов, выбран­ных из обучающего мн-ва , причем и . Пусть потенц. ф-ия K(x,xj) огра­ничена при и сущ. решающая ф-ия, пред­ставимая разложением и удовлетв. условиям:

, где ε>0

Тогда сущ. целое число

, (45)

не зависящее от выбора обучающей послед-ти Sx и такое, что при исп-ии алгоритмов число коррекций не превышает величины R.

Теорема. (О свойствах сходимости алгоритма)

Пусть векторы образов x удовлетворяют в пространстве образов следующим условиям:

1. Потенциальная функция

ограничена для

.

2. Сущ. решающ. ф-ия, представимая в виде , такая, что

, где ε>0

3.Обучающая выборка образов обладает следующ. св-ми: (а) в обучающей послед-ти выборочные образы появ-ся независимо.; (б) если на k-том шаге алгоритма обучения решающая ф-ия не обеспечивает прав. классиф-ии всех образов x1,x2,…,xk, то с положительной вероятностью будет предъявлен образ xk+1, корректирующий ошибку.

Тогда с вероятностью 1 можно определить конечное число шагов R таких, что кумулятивный потенциал

46. Достоинства и недостатки распознающих процедур перцептронного типа.

+: возможность обучения при опред-х условиях безошибочной классификации объектов; универсальность; ОП м\б в достаточной степени произвольной; результат обучения не зависит от начального состояния перц-на.

-: для решения сложных ЗР может потреб-ся перцептрон с большим числом элементов; длина ОП может оказаться очень большой; для сложных задач невозможно проверить условия, при кот-х ЗР с помошью перцептрона разрешена, а также усл-я сходимости АОП, которые описаны в тh Новикова.

VIII Стохастический подход к распознаванию образов

47. Элементы задачи решения.

Введем в рассм-е след. Элементы задачи принятия решения:

={w1,…,wm}-конечное множество m состояний природы(ситуаций)

D={d1,…,dp} – конечное множество p возможных решений (действий)

L(di,wj) – ф-я потерь: потери от принятия решения di, когда реализуется состояние wj.

X=(x1,…,xn) – в-р признаков. Б. Считать что он явл. реализ-ей сист. СВ X=(X1,…,Xn), которая для состояния природы wj характеризуется:

- Плотностью вероятности p(x/wj), если X – сист. абс. непр. СВ

-Законом распределения (набором вероятностей) P(x/wj)=P(X=x/wj), если X – сист дискретных СВ.

Пусть P(wj) вероятность появления состояния природы wj и пусть P(wj/x) – условная вероятность появления состояния природы wj при условии, что будет наблюдаться значение случ вектора X=x.

Соседние файлы в предмете [НЕСОРТИРОВАННОЕ]