- •Понятие, история развития теории нейронных сетей.
- •2. Основные свойства мозга, которые моделируются.
- •3. Основные области применения нейронных сетей.
- •4. Составляющие модели нейронной сети.
- •5. Понятие нейрона
- •6. Виды искусственных нейронов
- •7. Виды и назначение функции активации
- •8. Виды архитектуры нейронной сети.
- •9. Основные модели динамических нейронных сетей.
- •10. Парадигмы обучения нейронных сетей.
- •11. Параметры оптимизации системы, обучаемой по примерам.
- •12. Правила обучения.
- •13. Алгоритм обучения персептрона Розенблата.
- •14. Оценки качества нейронной сети.
- •15. Алгоритм обратного распространения ошибки
- •16. Способы обеспечения и ускорения сходимости
- •17. Сеть встречного распространения
- •18. Модель зрительного восприятия.
- •19. Виды сегментации изображения.
- •20. Виды преобразований изображения между классами
- •21. Особенности зрительного восприятия человека.
- •22. Методы пороговой обработки изображений.
- •23. Методы выделения контуров на изображении.
- •24. Метод уточнения контура
- •25. Методы распознавания изображений.
- •26. Основные проблемы теории искусственного интеллекта
- •27. Направления исследований в области систем искусственного интеллекта.
- •28. Данные и знания. Способ определения понятий.
- •29. Особенности знаний
- •30. Семантические сети.
- •31. Типы объектов и виды отношений в семантической сети.
- •32. Фреймовая модель.
- •33. Сравнительная харак-ка систем предста-ия знаний на основе сетевых моделей.
- •34. Продукционная система.
- •35. Логическая модель представления знаний.
- •36. Сравнительная характеристика систем представления знаний на основе продукций и логической модели.
- •37. Метод резолюций.
- •38. Виды неопределенности в задачах принятия решений
- •39. Понятие лингвистической переменной и основные операции теории нечетких множеств.
- •40. Характеристики речевых сигналов
- •41. Методы обработки речевого сигнала
- •42. Распознавание речевых сигналов.
- •Вопросы
- •Понятие, история развития теории нейронных сетей.
- •Основные области применения нейронных сетей.
9. Основные модели динамических нейронных сетей.
Выделяют: соревновательные сети, SOM (самоорганизующиеся карты Кохонена), сеть Хопфилда (сети с обратными связями (сеть Хопфилда «ассоциативная память»), т.е. от выходов к их входам) и ART модели (модели адаптивного резонанса) и модель Больцмана «Машина». Сеть APT представляет собой векторный классификатор. Входной вектор классифицируется в зависимости от того, на какой из множества ранее запомненных образов он похож. Свое классификационное решение сеть APT выражает в форме возбуждения одного из нейронов распознающего слоя. Если входной вектор не соответствует ни одному из запомненных образов, создается новая категория посредством запоминания образа, идентичного новому входному вектору. Если определено, что входной вектор похож на один из ранее запомненных векторов с точки зрения определенного критерия сходства, запомненный вектор будет изменяться (обучаться) под воздействием нового входного вектора таким образом, чтобы стать более похожим на этот входной вектор.
Запомненный образ не будет изменяться, если текущий входной вектор не окажется достаточно похожим на него. Таким образом, решается дилемма стабильности-пластичности.
10. Парадигмы обучения нейронных сетей.
Целью обучения Н.С. является настройка архитектуры и весов связей для эффективного решения задачи. Существует 3 парадигмы обучения:
-
Обучение с учителем (контролируемое). На каждый входной пример нейронная сеть получает от учителя соответствующий выходной пример и веса связей настраиваются таким образом, чтобы сеть формировала ответы наиболее близкие к заданным выходам.
Процесс обучения носит итерационный характер. Последовательно подаются входные выходные сигналы для каждого примера. На тестовых примерах проверяется правильность обучения.
-
Обучение без учителя. Не требуются ответы на каждый пример обучающей выборки при этом входные примеры разбиваются на классы за счет присущей примерам корреляции.
-
Смешанное обучение. Часть весов определяется путем обучения с учителем, а остальная – в процессе самообучения.
11. Параметры оптимизации системы, обучаемой по примерам.
В теории обучения выделяют 3 основные свойства, связанные с обучением по примерам:
1. Сложность образов: сколько обучающих примеров может запомнить сеть, необходимых для достижения способности к обучению. Сеть плохо реагирует на тестовые примеры, когда примеров мало. Когда слишком много примеров возникает эффект переобучения. В этом случае система теряет способность к обобщению и экстраполяции, поскольку моделирует шум во входных данных.
2. Емкость обучаемой системы – это максимальное количество примеров, которое может запомнить сеть, а так же вид целевой функций и ограничения, которые могут быть сформированы на данной системе.
3. Вычислительная сложность – математическая сложность реализуемых функций и организация топологии сети.
12. Правила обучения.
-
Правило Хебба. Основано на нейрофизиологии. Если два нейрона по двум сторонам синоптической связи активизируются одновременно и постоянно, то сила связи между ними увеличивается, в ином случае связь ослабевает.
-
Правило соревнований (правило «победитель забирает все»). Выходные нейроны соревнуются между собой за активизацию. Победителем является нейрон с самым высоким потенциалом. Если в правиле Хебба несколько нейронов могут активизироваться, то в правиле соревнований нейроны одного слоя борются между собой за активацию. При этом модифицируются веса связи только победившего нейрона. Данное правило позволяет кластеризовать входные данные.
-
Правило обучения по ошибке. Используется при обучении с учителем. Для каждого входного примера есть выходной. В процессе обучения для модификации весов связи используется разность между желаемым и вычисляемым выходом сети. В процессе итерации величина ошибки уменьшается.
-
Правило Больцмана (вероятностное обучение). Используется в статистических системах, когда известна вероятность. При подстройке весов связи используется терма динамические принципы. Нейрон рассматривается как физическая система с некоторым тепловым состоянием (высокие t). Процесс обучения связан с постепенным снижением параметра температуры, сеть стабилизируется в состояние, соответствующее заданному вероятностному распределению. Данное правило применяется при обучении без учителя.