- •1.Назначение эс
- •Важность эс состоит в следующем
- •К неформальным задачам относятся такие, кот обладают одной или неск хар-ми:
- •Особенности неформальных задач
- •Формальные основы эс (хрень, но вдруг пригодится)
- •2.Архитектура эс
- •3.Этапы разработки эс
- •Требования
- •Технология разработки эс
- •4.Основные направления исскуственного интелекта
- •5. Состояние работ в области экспертных систем и направлениям искусственного интеллекта.
- •Состояние работ в области экспертных систем
- •Состояние работ по новым напр-ям искусственного интеллекта
- •6.Клас-ция эс
- •7. Клас-ция инструм-ных ср-в
- •8. Характеристики типов задач
- •9. Представление знаний в эс
- •10.Состав и организачия знаний в эс Круг задач решаемых при представлении знаний включает след положения
- •11.Модели представления знаний
- •12.Логическая модель предст-я зн-й
- •Осн. Понятия логики предикатов
- •13.Семантические сети
- •14.Фреймы
- •15.Правила продукции
- •16.Модель доски объявлений
- •17.Модель прецедентов
- •18.Методы поиска решений в эс
- •19.Стратегии поиска решений в эс
- •20.Эвристические методы поиска в эс
- •21. Понятие нейроинформатики, история развития
- •22. Биологический и формальный нейрон.
- •23.Элементы нейронных сетей их обозначение
- •24. Типы нейронных сетей их обозначение
- •25 Основные достоинства и недостатки нс по сравнению с эс
- •26. Состав и структура нейросетевого интеллектуального блока
- •28. Интерпретатор нейросетевого блока
- •29 Блок «Учитель» нейроимитатора
- •30 Блок «Оценка»
- •34. Задачник нейросетевого блока
- •40. Понятие логически прозрачных нейронных систем.
- •1) Контрастирование нс – сведение ее связей до минимума для данных 2)Вербальное описание (формирование явных знаний).
- •Метод дифференциального обучения Хэбба
- •Теорема об обучении персептрона.
- •45 Многослойный перцептрон и его обучение
- •Обучение методом обратного распространения ошибок.
- •Формула1.
- •Формула 2
- •Формула 3
- •46.Карта самоорганизации Кохонена.
- •47. Гибридные модели представления знаний
28. Интерпретатор нейросетевого блока
функции интерпретации выходного сигнала НС:
1 - восстановление данных – преобразование из нормализованных в исходные значения
2 - семантическое представление выходных данных, преобразование данных из числового значения в слова, в др. размерность;
3 – графическое представление данных
4 – аудио, видеопредставление
5 – объяснительный компонент – объяснение результатов.
29 Блок «Учитель» нейроимитатора
НС обучается с учителем, если присутствуют выходные параметры. В рез-те работы блока учитель формир-ся ф-ция регрессии.
При создании новой НС в памяти отводится место под массив синаптических весов. Перед началом обучения этот массив заполняется случ-ми числами в нормиров-ом диапазоне. Этот массив наз-ся синаптической картой. В нач. момент времени на входные нейроны через вход синапсы подается вектор вх. сигналов. Далее этот сигнал распро-ся по всем связям м/у нейронами, изменяясь при прохождении через каждый нейрон. В рез-те сигнал поступает на выход. Т.к. НС обуч-ся с учителем, мы имеем необходимый выходной параметр, с которым и сравниваем полученный случ-й У. (Вся процедура однократного прохождения сигналов по НС наз-ся тактом функц-я). Задача блока Учитель состоит в проведении сравнения и по результатам оценки модификации соответствующих коэффициентов, используя методы оптимизации. Пример сети, обуч-ой с уч-лем – перцептрон.
30 Блок «Оценка»
Обучение НС на нек-ом задачнике означает мин-ю функционала невязки м/у вых-ми сигналами сети и сигналами, кот-е треб-ся получить. Для этого и служит блок оценки. При мин-и функционала оценки производ-ся подстройка обучаемых пар-ров (семантич-их коэф-в), чтобы функционал оценк достиг мин-ма. Н=|Yi – Yi0| -> min. Для минимизации функц-ла исп-ся градиентные методы нелин-го прогр-я (метод наискорейшего спуска, модифицированный Parton и т.д.) При обучении нейросети все эти методы объединены в группу методов обратного распр-я ошибки. При составлении прогр-мы обучения сети градиентными методами в кач-ве станд. оценки работы НС (ф-ции ошибки) выступает оценка по методу наим. квадратов.
Н=1/S*s[p(Fsp(a,xs) - ysp)], где
Н – оценка работы нейросети,
Fsp(a,xs) – значение р-й компоненты вектора выходн сигнала НС,
a,xs - векторы,
ysp – исходное значение,
s – число примеров,
p – размерность вых-го сигнала.
Кроме этого метода исп-ся спец. методы оценки. Например, оценка расстояния до множества правильных ответов.
31 Блок «Сеть» нейроимитатора
Привести общую стр-ру. РИС
Сеть- связанные м-у собой нейроны. Искусственная нейронная сеть – некот-е выч-е электр-е устр-ва обработки информации, состоящие из большого числа параллельно работиющих простых процессорных элементов – нейронов, связанных м/у собой линиями передачи информации – связями или синапсами. Бывают двух видов: слоистые и полносвязные. см. вопрос №24.
32 Блок «Конструктор»
Консутруктор НС – формирует ее структуру, начиная с минимальной до достаточной сложности, обеспечивающей требуемые параметры обучения, т.е наилучшую оценку.
При проектировании интелл. компонентов важным этапом является настройка структуры НС на ПО и на пар-ры обучающей выборки. Под выбором стр-ры в случае многослойной сети прямого распр-я понимается определение числа слоев k и числа нейронов mk в каждом слое. Слои нумеруются от слоя, принимающего вход. сигналы к слою, формирующему вых. сигналы.
Конструирование сети- процесс последоват. формирования стр-ры, начиная с 1 слоя, 1 нейрона до слоя k и нейрона mk. При этом должна быть достигнута заданная точность решени задачи.
(Берется один нейрон, нач-ся обуч-е, добавл-ся нейрон, еще обуч-тся. Нейроны добавляются пока не достигнута заданная ошибка).
33. Блок «Констрастер»
Назначение контрастера - сводить число связей сети до минимально необходимого, но обеспечивающего заданную точность или оценку. При этом также уменьшается и число нейронов сети.
Упрощение НС строится как последовательный процесс исключения из сети наименее значимого элемента и последующего ее дообучения. При контрастировании решаются следующие задачи:
- упрощение архитектуры НС
- уменьшение числа входных сигналов
- получение явных знаний из данных
- получение логически прозрачных НС