- •1.Назначение эс
- •Важность эс состоит в следующем
- •К неформальным задачам относятся такие, кот обладают одной или неск хар-ми:
- •Особенности неформальных задач
- •Формальные основы эс (хрень, но вдруг пригодится)
- •2.Архитектура эс
- •3.Этапы разработки эс
- •Требования
- •Технология разработки эс
- •4.Основные направления исскуственного интелекта
- •5. Состояние работ в области экспертных систем и направлениям искусственного интеллекта.
- •Состояние работ в области экспертных систем
- •Состояние работ по новым напр-ям искусственного интеллекта
- •6.Клас-ция эс
- •7. Клас-ция инструм-ных ср-в
- •8. Характеристики типов задач
- •9. Представление знаний в эс
- •10.Состав и организачия знаний в эс Круг задач решаемых при представлении знаний включает след положения
- •11.Модели представления знаний
- •12.Логическая модель предст-я зн-й
- •Осн. Понятия логики предикатов
- •13.Семантические сети
- •14.Фреймы
- •15.Правила продукции
- •16.Модель доски объявлений
- •17.Модель прецедентов
- •18.Методы поиска решений в эс
- •19.Стратегии поиска решений в эс
- •20.Эвристические методы поиска в эс
- •21. Понятие нейроинформатики, история развития
- •22. Биологический и формальный нейрон.
- •23.Элементы нейронных сетей их обозначение
- •24. Типы нейронных сетей их обозначение
- •25 Основные достоинства и недостатки нс по сравнению с эс
- •26. Состав и структура нейросетевого интеллектуального блока
- •28. Интерпретатор нейросетевого блока
- •29 Блок «Учитель» нейроимитатора
- •30 Блок «Оценка»
- •34. Задачник нейросетевого блока
- •40. Понятие логически прозрачных нейронных систем.
- •1) Контрастирование нс – сведение ее связей до минимума для данных 2)Вербальное описание (формирование явных знаний).
- •Метод дифференциального обучения Хэбба
- •Теорема об обучении персептрона.
- •45 Многослойный перцептрон и его обучение
- •Обучение методом обратного распространения ошибок.
- •Формула1.
- •Формула 2
- •Формула 3
- •46.Карта самоорганизации Кохонена.
- •47. Гибридные модели представления знаний
Формула1.
Здесь учтено полезное свойство сигмоидальной функции f(x): ее производная выражается только через само значение функции, f’(x)=f(1-f). Таким образом, все необходимые величины для подстройки весов выходного слоя V получены.
Шаг 3. На этом шаге выполняется подстройка весов скрытого слоя. Градиентный метод по-прежнему дает:
Формула 2
Вычисления производных выполняются по тем же формулам, за исключением некоторого усложнения формулы для ошибки j.
Формула 3
При вычислении j здесь и был применен принцип обратного распространения ошибки: частные производные берутся только по переменным последующего слоя. По полученным формулам модифицируются веса нейронов скрытого слоя. Если в нейронной сети имеется несколько скрытых слоев, процедура обратного распространения применяется последовательно для каждого из них, начиная со слоя, предшествующего выходному, и далее до слоя, следующего за входным. При этом формулы сохраняют свой вид с заменой элементов выходного слоя на элементы соотвествующего скрытого слоя.
Шаг 4. Шаги 1-3 повторяются для всех обучающих векторов. Обучение завершается по достижении малой полной ошибки или максимально допустимого числа итераций, как и в методе обучения Розенблатта.
Параметр h имеет смысл темпа обучения.
46.Карта самоорганизации Кохонена.
модель Кохонена выполняет обобщение предъявляемой инф. В результате работы НС Кохонена получается образ, представляющий собой карту распределения векторов из обучающей выборки.
Данная сеть обучается без учителя на основе самоорганизации. По мере обучении вектора весов нейронов стремятся к центрам кластеров - групп векторов обучающей выборки. На этапе решения информационных задач сеть относит новый предъявленный образ к одному из сформированных кластеров, указывая тем самым категорию, к которой он принадлежит.
НС состоит из одного слоя нейронов. Число входов каждого нейрона равно размерности входного образа. Обучение начинается с задания случайных значений матрице связей . В дальнейшем происходит процесс самоорганизации, состоящий в модификации весов при пред'явлении на вход векторов обучающей выборки. Для каждого нейрона можно определить его расстояние до вектора входа:
Далее выбирается нейрон m=m*, для которого это расстояние min. На текущем шаге обучения t будут модифицироваться только веса нейронов из окрестности нейрона m*:
Первоначально в окрестности любого из нейронов находятся все нейроны сети, в последствии эта окрестность сужается. В конце этапа обучения подстраиваются только веса самог`о ближайшего нейрона. Темп обучения h(t)<1 с течением времени также уменьшается. Образы обучающей выборки пред'являются последовательно, и каждый раз происходит подстройка весов.
47. Гибридные модели представления знаний
- комбинация различных форм представления знаний в единую гибридную модель.
Модель сверху вниз (построение дерева оценки опред-ся знанием ПО, показателей, кот-е можно определить аналитически):
1) Оценка финансового состояния – опред-ся логич-ми правилами;
2) оценка ликвидности, устойчивости и др. подобные блоки – в завис-ти от уровня сложности – для оценки м. применяться простая ЭС или НСеть. (составление обучающей выборки - наск-ко ликвиден баланс, далее оценка эксперта –> составление новой обучающей выборки, можно применить продукционную систему).
3) Остатки баланса определяются совокупностью многих факторов – можно представить в виде формул.
4) ост-е показатели, определяющие напр. строки баланса также как в п.3.
Т.о. получили сочетание разл. методов представления знаний => гибридную систему.
Преимущества:
Легкость выявления пред-ия знаний
Испытание преимуществ в разл. моделей представления знаний
Структурировать модели, что улучшает ее модиф-ть и повышает скорость поиска решений
Недостатки:
Сложность выбора модели представления знаний в узлах графа решения задач