- •Одесса онпу 2011
- •1. Цель курсового проектирования
- •2. Задание на курсовую работу
- •3. График выполнения работы
- •4. Рекомендации по выполнению кр
- •5. Содержание пояснительной записки Пояснительная записка к курсовой работе должна содержать
- •6. Теоретическая часть
- •6.2. Задание 1. Проектирование однослойной искусственной нейронной сети. Общие сведения.
- •6.3. Задание 2. Проектирование сети встречного распространения.
- •6.3.1.Общие сведения
- •Нормальное функционирование Слои Кохоненна
- •Слой Гроссберга
- •Обучение слоя кохонена
- •Предварительная обработка входных векторов
- •Выбор начальных значений весовых векторов
- •Обучение слоя гроссберга
- •6.4.3. Пример.
6.3. Задание 2. Проектирование сети встречного распространения.
6.3.1.Общие сведения
Возможности сети встречного распространения превосходят возмож-ности однослойных сетей. Во встречном распространении объединены два известных алгоритма: самоорганизующаяся карта Кохонена и звезда Грос-сберга. Их объединение ведет к свойствам, которых нет ни у одного из них в отдельности.
В процессе обучения входные векторы ассоциируются с соответствую-щими выходными векторами. Эти векторы могут быть двоичными, состоя-щими из нулей и единиц, или непрерывными. Когда сеть обучена, приложе-ние входного вектора приводит к требуемому выходному вектору. Обоб-щающая способность сети позволяет получать правильный выход даже при приложении входного вектора, который является неполным или слегка не-верным. Это позволяет использовать данную сеть для распознавания образов, восстановления образов и усиления сигналов.
На рис. 8 показана упрощенная версия прямого действия сети встречного распространения.
Рис. 8. Сеть с встречным распространением
Нейроны слоя 0 (показанные кружками) служат лишь точками разветв-ления и не выполняют вычислений. Каждый нейрон слоя 0 соединен с каж-дым нейроном слоя 1 (называемого слоем Кохонена) отдельным весом wmn. Эти веса в целом рассматриваются как матрица весов W. Аналогично, каж-дый нейрон в слое Кохонена (слое 1) соединен с каждым нейроном в слое Гроссберга (слое 2) весом vnp. Эти веса образуют матрицу весов V.
Как и многие другие сети, встречное распространение функционирует в двух режимах: в нормальном режиме, при котором принимается входной вектор Х и выдается выходной вектор Y, и в режиме обучения, при котором подается входной вектор и веса корректируются, чтобы дать требуемый выходной вектор.
Нормальное функционирование Слои Кохоненна
В своей простейшей форме слой Кохонена функционирует в духе «победи-тель забирает все», т. е. для данного входного вектора один и только один нейрон Кохонена выдает на выходе логическую единицу, все остальные вы-дают ноль.
Каждый нейрон слоя Кохонена соответствует структурной схеме, при-веденной на рис.1 при выборе в качестве функции преобразования функции Хевисайда.
Ассоциированное с каждым нейроном Кохонена множество весов соеди-няет его с каждым входом. Например, на рис. 8 нейрон Кохонена К1 имеет веса w11, w12, …, w1m, составляющие весовой вектор W1. Они соединяются через входной слой с входными сигналами х1, x2, …, xm, составляющими входной вектор X. Подобно нейронам большинства сетей выход neti каждо-го i-того нейрона Кохонена является просто суммой взвешенных входов. Это может быть выражено следующим образом:
(25)
или в векторной записи
N = WTX, (26)
где N – вектор выходов сетевых функций net слоя Кохонена.
Нейрон Кохонена с максимальным значением net является «победителем». Его выходу присваивается значение, равное единице, а остальным - ноль.