Добавил:
Upload Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:
Нечеткие знания.docx
Скачиваний:
4
Добавлен:
18.09.2019
Размер:
70.54 Кб
Скачать

Метод репертуарных решеток.

Репертуарная решетка представляет собой матрицу, которая заполняется экспертом в процессе диалога с когнитологом. Столбцу матрицы соответствует определённая группа объектов или элементов. В качестве элементов могут выступать люди, понятия, предметы, т.е. все, что интересует когнитолога. Строки матрицы это конструкты. Конструкт – некоторый признак или свойство, по которому два или нескольких объекта сходны между собой. Пример три элемента: диван, кресло, табуретка. Конструкты – это неизолированные образования, они носят целостный характер, а элементы выбираются по определённым правилам, так, чтобы они соответствовали какой-либо одной области и были связаны осмысленным образом, т.е. контекстом. Репертуарная решетка – это специфическая разновидность структурированного интервью, а ее анализ позволяет определить силу и направленность связей между конструктами эксперта и выявить наиболее значимые из них. 5) На 5ом этапе проводится тестирование модели нейронной сети на независимой выборке. Процесс обучение нейронной сети представляет собой уточнение значений синоптических весов Wij. Вначале обучение должна предшествовать процедура выбора функции активации, учитывая характер решаемой задачи. Изменение синоптических весов может выполняться разными способами. Три парадигмы или концепции:

1) Обучение с учителем

2) Обучение без учителя

3) Смешанное обучение.

При обучении с учителем все примеры обучающей выборки содержат правильные ответы или выводы. В процессе обучения синоптические веса настраиваются т.о. чтобы нейронная сеть рождала ответы наиболее близким к правильным.

Обучение без учителя используется, когда не для всех примеров обучающей выборке известны правильные ответы, в этом случае предпринимаются попытки определения внутренней структуры, поступающих в сеть данных с целью распределить образцы по категориям.

При смешенном обучении часть синоптических весов определяется посредством обучения с учителем, другая часть без учителя.

Самый распространённый метод – метод обучение с учителем. Один из них: на основе процедуры обратного распространения ошибок. процесс обучения можно рассматривать, как дискретный процесс, описываемый конечно разностными уравнениями. Основы обучения являются обучающий пара (Хi , Di)- Эталон, который должен быть получен на выходе сети. Выч. значения Уi сравниваются с эталоном Di и их разница используются для корректировки синоптических весов

АО

ИНС

Уi

Xi

Di

Алгоритм – это процедура обратного распространения ошибки, относится к алгоритмам градиентного спуска, минимизирующим квадратичную ошибку. Главная цель состоит в том, чтобы вычислить ошибки нейро сети к изменению синоптических весов. Пусть нейронная сеть соответствует схеме на рисунке (см. выше) тогда алгоритм обучения можно описать следующим образом:

- Задать синоптические матрицы, W - веса от входного слоя к скрытному . W* наоборот.

- Для каждой обучающей пары (Xi, Di) выполняется следующее:

- подать на вход скрытого слоя очередной набор обучающих данных Х

- вычислить выход скрытого слоя

- вычислить выход выходного слоя У

- Рассчитать ошибки для выходного и скрытого слоев:

- Рассчитать ошибку между полученными выходными величинами сети и эталонами сети

- Рассчитать ошибку для нейронов скрытого слоя

Повторять этапы 2 и 3 до тех пор, пока ошибки не станут приемлемыми.

Пример обучения нейросети:

Пусть не сеть имеет следующий вид:

W*1 y W*n k

S1 Y*1(1) Y*2(2) S2 m

W11 W21

W12 W2 n

X1(1)=1 X2(1)=2

n=2; m=2; k =1

Обучающее множество X*

X*=(1;2)

D=3

Все нейроны возбуждаются в сигмовидной функции, заданы синоптические матрицы

W(1)=[01;02, 2 строка 01;02]

W*(1)=[0,2 ; 2 строка 0,1]

Вычислим взвешенную сумму

W(1)= X* x W(1) = [0,3 ; 0,6]

Y*(1)= 1/1-exp(-0,3) x 1/1-exp(-0,6) = (0,574;0646)

V*(1)=y*m x W*(1)= 0,574 *0,2 + 0,646*0,1 = 0,179

Y(1)=1/1+exp(0,549)= 0,545

D= 1/1+exp(-3)= 0.952

E= 0,5(0,545 – 0,952)в квадрате(2)=0,0828

Значение фактического выхода У и D не совпадают, поэтому синоптические веса следует изменить, для этого необходимо выяснить каким образом повлияют эти изменения на величину ошибки, анализ согласно алгоритму обратного распространения выполняют начиная с выходного слоя сети и продвигаясь вниз. Прежде всего, выясняем, как влияет на ошибку сети изменения на выходе для этого достаточно определить скорость изменения ошибки при данном значении выхода скорость определяется с помощью производной.

Eа= бE/бy=y(1)D=0,545 – 0,952 = -0,407

Полученная реакция скорость изменения ошибки при данном значении выхода отрицательна, что указывает на необходимость увеличения значения на входе.

  1. Определить каким образом влияет на ошибки сети каждый из всходов выходного слоя для этого вычисляется EQ=бE/бV*(1)=-0,06

После этого вычисляются значения корректирующие матрицу W*

EW*= [-0,034-0,039]

W*12=[0,234 2 строка 0,139]

Аналогично корректируется матрица W

E=0,0752