Добавил:
Upload Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:
Шпоры_Интеллект.doc
Скачиваний:
15
Добавлен:
09.12.2018
Размер:
512.51 Кб
Скачать

9. Основные модели динамических нейронных сетей.

Выделяют: соревновательные сети, SOM (самоорганизующиеся карты Кохонена), сеть Хопфилда (сети с обратными связями (сеть Хопфилда «ассоциативная память»), т.е. от выходов к их входам) и ART модели (модели адаптивного резонанса) и модель Больцмана «Машина». Сеть APT представляет собой векторный классификатор. Входной вектор классифицируется в зависимости от того, на какой из множества ранее запомненных образов он похож. Свое классификационное решение сеть APT выражает в форме возбуждения одного из нейронов распознающего слоя. Если входной вектор не соответствует ни одному из запомненных образов, создается новая категория посредством запоминания образа, идентичного новому входному вектору. Если определено, что входной вектор похож на один из ранее запомненных векторов с точки зрения определенного критерия сходства, запомненный вектор будет изменяться (обучаться) под воздействием нового входного вектора таким образом, чтобы стать более похожим на этот входной вектор.

Запомненный образ не будет изменяться, если текущий входной вектор не окажется достаточно похожим на него. Таким образом, решается дилемма стабильности-пластичности.

10. Парадигмы обучения нейронных сетей.

Целью обучения Н.С. является настройка архитектуры и весов связей для эффективного решения задачи. Существует 3 парадигмы обучения:

  • Обучение с учителем (контролируемое). На каждый входной пример нейронная сеть получает от учителя соответствующий выходной пример и веса связей настраиваются таким образом, чтобы сеть формировала ответы наиболее близкие к заданным выходам.

Процесс обучения носит итерационный характер. Последовательно подаются входные выходные сигналы для каждого примера. На тестовых примерах проверяется правильность обучения.

  • Обучение без учителя. Не требуются ответы на каждый пример обучающей выборки при этом входные примеры разбиваются на классы за счет присущей примерам корреляции.

  • Смешанное обучение. Часть весов определяется путем обучения с учителем, а остальная – в процессе самообучения.

11. Параметры оптимизации системы, обучаемой по примерам.

В теории обучения выделяют 3 основные свойства, связанные с обучением по примерам:

1. Сложность образов: сколько обучающих примеров может запомнить сеть, необходимых для достижения способности к обучению. Сеть плохо реагирует на тестовые примеры, когда примеров мало. Когда слишком много примеров возникает эффект переобучения. В этом случае система теряет способность к обобщению и экстраполяции, поскольку моделирует шум во входных данных.

2. Емкость обучаемой системы – это максимальное количество примеров, которое может запомнить сеть, а так же вид целевой функций и ограничения, которые могут быть сформированы на данной системе.

3. Вычислительная сложность – математическая сложность реализуемых функций и организация топологии сети.

12. Правила обучения.

  • Правило Хебба. Основано на нейрофизиологии. Если два нейрона по двум сторонам синоптической связи активизируются одновременно и постоянно, то сила связи между ними увеличивается, в ином случае связь ослабевает.

  • Правило соревнований (правило «победитель забирает все»). Выходные нейроны соревнуются между собой за активизацию. Победителем является нейрон с самым высоким потенциалом. Если в правиле Хебба несколько нейронов могут активизироваться, то в правиле соревнований нейроны одного слоя борются между собой за активацию. При этом модифицируются веса связи только победившего нейрона. Данное правило позволяет кластеризовать входные данные.

  • Правило обучения по ошибке. Используется при обучении с учителем. Для каждого входного примера есть выходной. В процессе обучения для модификации весов связи используется разность между желаемым и вычисляемым выходом сети. В процессе итерации величина ошибки уменьшается.

  • Правило Больцмана (вероятностное обучение). Используется в статистических системах, когда известна вероятность. При подстройке весов связи используется терма динамические принципы. Нейрон рассматривается как физическая система с некоторым тепловым состоянием (высокие t). Процесс обучения связан с постепенным снижением параметра температуры, сеть стабилизируется в состояние, соответствующее заданному вероятностному распределению. Данное правило применяется при обучении без учителя.