Добавил:
Upload Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:
Медведев В.С., Потемкин В.Г. Нейронные сети. MATLAB 6.doc
Скачиваний:
857
Добавлен:
07.03.2016
Размер:
15.55 Mб
Скачать

Архитектура сети

Архитектура самоорганизующейся карты Кохонена показана на рис. 7.10.

Рис. 7.10

Эта архитектура аналогична структуре слоя Кохонена за исключением того, что здесь не используются смещения. Конкурирующая функция активации возвращает 1 для элемента выхода a1, соответствующего победившему нейрону; все другие элементы вектора a1 равны 0.

Однако в сети Кохонена выполняется перераспределение нейронов, соседствующих с победившим нейроном. При этом можно выбирать различные топологии размещения нейронов и различные меры для вычисления расстояний между нейронами.

Создание сети

Для создания самоорганизующейся карты Кохонена в составе ППП NNT предусмотрена М-функция newsom. Допустим, что требуется создать сеть для обработки двухэлементных векторов входа с диапазоном изменения элементов от 0 до 2 и от 0 до 1 соответственно. Предполагается использовать гексагональную сетку размера 23. Тогда для формирования такой нейронной сети достаточно воспользоваться оператором

net = newsom([0 2; 0 1], [2 3]);

net.layers{1}

ans =

dimensions: [2 3]

distanceFcn: 'linkdist'

distances: [66 double]

initFcn: 'initwb'

netInputFcn: 'netsum'

positions: [26 double]

size: 6

topologyFcn: 'hextop'

transferFcn: 'compet'

userdata: [11 struct]

Из анализа характеристик этой сети следует, что она использует по умолчанию гексагональную топологию hextopи функцию расстоянияlinkdist.

Для обучения сети зададим следующие 12 двухэлементных векторов входа:

P = [0.1 0.3 1.2 1.1 1.8 1.7 0.1 0.3 1.2 1.1 1.8 1.7; ...

0.2 0.1 0.3 0.1 0.3 0.2 1.8 1.8 1.9 1.9 1.7 1.8];

Построим на топографической карте начальное расположение нейронов карты Кохонена и вершины векторов входа (рис. 7.11):

plotsom(net.iw{1,1},net.layers{1}.distances)

hold on

plot(P(1,:),P(2,:),'*k','markersize',10)

Рис. 7.11

Векторы входа помечены символом * и расположены по периметру рисунка, а начальное расположение нейронов соответствует точке с координатами (1, 0.5).

Обучение сети

Обучение самоорганизующейся карты Кохонена реализуется повекторно независимо от того, выполняется обучение сети с помощью функции trainwb1или адаптация с помощью функцииadaptwb. В любом случае функцияlearnsomвыполняет настройку элементов весовых векторов нейронов.

Прежде всего определяется нейрон-победитель и корректируются его вектор весов и векторы весов соседних нейронов согласно соотношению

, (7.14)

где lr – параметр скорости обучения; А2 – массив параметров соседства для нейронов, рас­по­ло­женных в окрестности нейрона-победителя i, который вычисляется по соотношению

(7.15)

где a(i, q) – элемент выхода нейронной сети; D(i, j) – расстояние между нейронами i и j; nd – размер окрестности нейрона-победителя.

В соответствии с соотношениями (6.14) и (6.15) весовые векторы нейрона-победителя и соседних нейронов изменяются в зависимости от значения параметра соседства. Веса нейрона-победителя изменяются пропорционально параметру скорости обучения, а веса соседних нейронов – пропорционально половинному значению этого параметра.

Процесс обучения карты Кохонена включает 2 этапа: этап упорядочения векторов весовых коэффициентов в пространстве признаков и этап подстройки. При этом используются следующие параметры обучения сети:

Параметры обучения и настройки карты Кохонена

Значение по умо­лчанию

Количество циклов обучения

net.trainParam.epochs

N

1000

Количество циклов на этапе упорядочения

net.inputWeights{1,1}.learnParam.order_steps

S

1000

Параметр скорости обучения на этапе упорядочения

net.inputWeights{1,1}.learnParam.order_lr

order_lr

0.9

Параметр скорости обучения на этапе подстройки

net.inputWeights{1,1}.learnParam.tune_lr

tune_lr

0.02

Размер окрестности на этапе подстройки

net.inputWeights{1,1}.learnParam.tune_nd

tune_nd

1

В процессе построения карты Кохонена изменяются 2 параметра: размер окрестности и параметр скорости обучения.

Этап упорядочения.На этом этапе используется фиксированное количество шагов. Начальный размер окрестности назначается равным максимальному расстоянию между нейронами для выбранной топологии и затем уменьшается до величины, используемой на этапе подстройки в соответствии со следующим правилом:

, (7.16)

где max(d) – максимальное расстояние между нейронами;s– номер текущего шага.

Параметр скорости обучения изменяется по правилу

. (7.17)

Таким образом, он уменьшается от значения order_lrдо значенияtune_lr.

Этап подстройки. Этот этап продолжается в течение оставшейся части процедуры обучения. Размер окрестности на этом этапе остается постоянным и равным

. (7.18)

Параметр скорости обучения изменяется по следующему правилу:

. (7.19)

Параметр скорости обучения продолжает уменьшаться, но очень медленно, и именно поэтому этот этап именуется подстройкой. Малое значение окрестности и медленное уменьшение параметра скорости обучения хорошо настраивают сеть при сохранении размещения, найденного на предыдущем этапе. Число шагов на этапе подстройки должно значительно превышать число шагов на этапе размещения. На этом этапе происходит тонкая настройка весов нейронов по отношению к набору векторов входа.

Как и в случае слоя Кохонена, нейроны карты Кохонена будут упорядочиваться так, чтобы при равномерной плотности векторов входа нейроны карты Кохонена также были распределены равномерно. Если векторы входа распределены неравномерно, то и нейроны на карте Кохонена будут иметь тенденцию распределяться в соответствии с плотностью размещения векторов входа.

Таким образом, при обучении карты Кохонена решается не только задача кластеризации входных векторов, но и выполняется частичная классификация.

Выполним обучение карты Кохонена размера 23 с гексагональной сеткой и с мерой, определяемой расстоянием связи

net = newsom([0 2; 0 1], [2 3]);

Для обучения сети зададим 12 двухэлементных векторов входа

P = [0.1 0.3 1.2 1.1 1.8 1.7 0.1 0.3 1.2 1.1 1.8 1.7; ...

0.2 0.1 0.3 0.1 0.3 0.2 1.8 1.8 1.9 1.9 1.7 1.8];

Зададим количество циклов обучения равным 2000:

net.trainParam.epochs = 2000;

net.trainParam.show = 100;

net = train(net,P);

plot(P(1,:),P(2,:),'*','markersize',10)

hold on

plotsom(net.iw{1,1},net.layers{1}.distances)

Результат обучения представлен на рис. 7.12.

Рис. 7.12

Положение нейронов и их нумерация определяются массивом весовых векторов, который для данного примера имеет вид:

net.IW{1}

ans =

1.2163 0.20902

0.73242 0.46577

1.0645 0.99109

0.4551 1.3893

1.5359 1.8079

1.0888 1.8433

Если промоделировать карту Кохонена на массиве обучающих векторов входа, то будет получен следующий выход сети:

a = sim(net,P)

a =

(2,1) 1

(2,2) 1

(1,3) 1

(1,4) 1

(1,5) 1

(1,6) 1

(4,7) 1

(4,8) 1

(6,9) 1

(6,10) 1

(5,11) 1

(5,12) 1

Это означает, что векторы входов 1 и 2 отнесены к кластеру с номером 2, векторы 3–6 – к кластеру 1, векторы 7–8 – к кластеру 4, векторы 9–10 – к кластеру 6, а векторы 11–12 – к кластеру 5. Номер кластера на рисунке соответствует номеру соответствующего нейрона на карте Кохонена.

Если сформировать произвольный вектор входа, то карта Кохонена должна указать его принадлежность к тому или иному кластеру:

a = sim(net,[1.5; 1])

a = (3,1) 1

В данном случае представленный вектор входа отнесен к кластеру с номером 3. Обратите внимание, что векторов такого сорта в обучающей последовательности не было.

Рассмотрим еще 2 примера одномерной и двумерной карт Кохонена.