Добавил:
Upload Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:
Метод_КРискусственные сети.doc
Скачиваний:
4
Добавлен:
10.11.2019
Размер:
1.08 Mб
Скачать

6.3. Задание 2. Проектирование сети встречного распространения.

6.3.1.Общие сведения

Возможности сети встречного распространения превосходят возмож-ности однослойных сетей. Во встречном распространении объединены два известных алгоритма: самоорганизующаяся карта Кохонена и звезда Грос-сберга. Их объединение ведет к свойствам, которых нет ни у одного из них в отдельности.

В процессе обучения входные векторы ассоциируются с соответствую-щими выходными векторами. Эти векторы могут быть двоичными, состоя-щими из нулей и единиц, или непрерывными. Когда сеть обучена, приложе-ние входного вектора приводит к требуемому выходному вектору. Обоб-щающая способность сети позволяет получать правильный выход даже при приложении входного вектора, который является неполным или слегка не-верным. Это позволяет использовать данную сеть для распознавания образов, восстановления образов и усиления сигналов.

На рис. 8 показана упрощенная версия прямого действия сети встречного распространения.

Рис. 8. Сеть с встречным распространением

Нейроны слоя 0 (показанные кружками) служат лишь точками разветв-ления и не выполняют вычислений. Каждый нейрон слоя 0 соединен с каж-дым нейроном слоя 1 (называемого слоем Кохонена) отдельным весом wmn. Эти веса в целом рассматриваются как матрица весов W. Аналогично, каж-дый нейрон в слое Кохонена (слое 1) соединен с каждым нейроном в слое Гроссберга (слое 2) весом vnp. Эти веса образуют матрицу весов V.

Как и многие другие сети, встречное распространение функционирует в двух режимах: в нормальном режиме, при котором принимается входной вектор Х и выдается выходной вектор Y, и в режиме обучения, при котором подается входной вектор и веса корректируются, чтобы дать требуемый выходной вектор.

Нормальное функционирование Слои Кохоненна

В своей простейшей форме слой Кохонена функционирует в духе «победи-тель забирает все», т. е. для данного входного вектора один и только один нейрон Кохонена выдает на выходе логическую единицу, все остальные вы-дают ноль.

Каждый нейрон слоя Кохонена соответствует структурной схеме, при-веденной на рис.1 при выборе в качестве функции преобразования функции Хевисайда.

Ассоциированное с каждым нейроном Кохонена множество весов соеди-няет его с каждым входом. Например, на рис. 8 нейрон Кохонена К1 имеет веса w11, w12, …, w1m, составляющие весовой вектор W1. Они соединяются через входной слой с входными сигналами х1, x2, …, xm, составляющими входной вектор X. Подобно нейронам большинства сетей выход neti каждо-го i-того нейрона Кохонена является просто суммой взвешенных входов. Это может быть выражено следующим образом:

(25)

или в векторной записи

N = WTX, (26)

где N – вектор выходов сетевых функций net слоя Кохонена.

Нейрон Кохонена с максимальным значением net является «победителем». Его выходу присваивается значение, равное единице, а остальным - ноль.