- •1.Назначение эс
- •Важность эс состоит в следующем
- •К неформальным задачам относятся такие, кот обладают одной или неск хар-ми:
- •Особенности неформальных задач
- •Формальные основы эс (хрень, но вдруг пригодится)
- •2.Архитектура эс
- •3.Этапы разработки эс
- •Требования
- •Технология разработки эс
- •4.Основные направления исскуственного интелекта
- •5. Состояние работ в области экспертных систем и направлениям искусственного интеллекта.
- •Состояние работ в области экспертных систем
- •Состояние работ по новым напр-ям искусственного интеллекта
- •6.Клас-ция эс
- •7. Клас-ция инструм-ных ср-в
- •8. Характеристики типов задач
- •9. Представление знаний в эс
- •10.Состав и организачия знаний в эс Круг задач решаемых при представлении знаний включает след положения
- •11.Модели представления знаний
- •12.Логическая модель предст-я зн-й
- •Осн. Понятия логики предикатов
- •13.Семантические сети
- •14.Фреймы
- •15.Правила продукции
- •16.Модель доски объявлений
- •17.Модель прецедентов
- •18.Методы поиска решений в эс
- •19.Стратегии поиска решений в эс
- •20.Эвристические методы поиска в эс
- •21. Понятие нейроинформатики, история развития
- •22. Биологический и формальный нейрон.
- •23.Элементы нейронных сетей их обозначение
- •24. Типы нейронных сетей их обозначение
- •25 Основные достоинства и недостатки нс по сравнению с эс
- •26. Состав и структура нейросетевого интеллектуального блока
- •28. Интерпретатор нейросетевого блока
- •29 Блок «Учитель» нейроимитатора
- •30 Блок «Оценка»
- •34. Задачник нейросетевого блока
- •40. Понятие логически прозрачных нейронных систем.
- •1) Контрастирование нс – сведение ее связей до минимума для данных 2)Вербальное описание (формирование явных знаний).
- •Метод дифференциального обучения Хэбба
- •Теорема об обучении персептрона.
- •45 Многослойный перцептрон и его обучение
- •Обучение методом обратного распространения ошибок.
- •Формула1.
- •Формула 2
- •Формула 3
- •46.Карта самоорганизации Кохонена.
- •47. Гибридные модели представления знаний
34. Задачник нейросетевого блока
- это некоторая совокупность примеров векторов, на основе которых осуществляется обучение по НС. Та часть задачника, кот-я может исп-ся для проверки прав-ти обучения наз-ся тестовой выборкой. Для оценки эфф-ти обучения НС используется понятие ошибки:
- ошибка обучения – формируется при проверке прав-ти обучения на обучающей выборке
- ошибка обобщения
150 строк матрицы: 100 строк – обучение; 50 строк – проверка прав-ти обучения- тестирование- ошибка обобщения.
Обуч-ие выборки опред-ся наличием либо отс-ем выходных признаков. Если выходные пар-ры присутствуют, то НС обучается «с учителем». Если выходные признаки отсут-т, тоНС обуч-ся «без учителя». При обучении с учителем в рез-те форм-ся ф-ция регрессии, без учителя осущ-ся операции распознавания образов, кластеризация – задачи группировки данных. Для их решения исп-ся однослойные НС, либо методы распознавания образов.
№ 35 Предобработчик нейросетевого блока
Сигналы могут поступать на нейроим-р в любой форме => необходима программа преобразования инф-и в единую форму, необх-ю для мат-ой обработки сигналов.
К этапам предобработки при НС-ом моделировании относятся след.ф-ции предобработчика:
- функции предобработки
1) проверка однородных данных – весь исх-й статист-й материал разбивается на ряд групп, объедин-х к-л общим признаком. В спец. теории распознавания образов сущ-ет гипотеза о компактности:
реализация одного и того же образа данных обычно отображается в признаковом пространстве геом-ки близкими точками, образуя компактные сгустки. Для опред-я однородности выборки используют различные меры компактности. В частности среднее расстояние от центра тяжести до всех точек образа.
2) исключение аномальных наблюдений
3) заполнение пропусков данных – статистич-й анализ данных с пропусками.
4) фильтрация данных прим-ся, когда есть резкие всплески/падения знач-й Д Методы: простые скользящие средние, взвешенные скользящие средние, экспоненциальные скользящие средние, вейвлет анализ, ряды Фурье.
5) нормирование данных осущ-ся преобраз-е вх-ых сигналов т.о., чтобы обеспечить эфф-ю работу сети: bmin=-1, bmax=1 xmin, xmax
x’=((x-xmin)(bmax-bmin))/(xmax-xmin)
6) эвристический анализ данных – технический анализ данных.
- функции погружения данных
1) погр-е данных для задач оценки и анализа
2) погр-е данных для задач прогноза (без пересечения, с пересечением, по одному ряду, по совок-ти временных рядов, с настройкой глубины погружения, режим без дообучения, режим с дообучением).
№ 36 Менеджер (управляющий модуль нейросетевого блока)
Рассмотреть всю схему НС блока. Менеджер осущ-ет управление всеми этапами обработки информации.
№37 Особенности проектир-я нейросетевых интеллектуальных компонентов инфор-х систем
При проектир-ии интел. ИС нейросетевому моделир-ю любого эл. процесса д. предшествовать оприорный анализ объекта исследования или исх-х данных. При НС-ом моделировании он частично отл-ся от технологии статистич-го анализа и состит из след. этапов:
постан-ка задачи исслед-я
обобщ-е профес. з. об о. исслед-я на основе опыта, интуиции, изуч-я лит-ых ист-ков, консультации со спец-тами и тп.
формализация получен. оприорной информации об о. исслед-я.
уточнение и конкретизация постановки задачи
сбор исходных данных
формирование обучающей выборки.
Этапы:
Постановка задачи – определение цели работы эксперта системы, набора входных данных и формы представления ответов.
Сбор данных – набор репрезентативного материала для статистических исследований и его структурирование – разделение на подгруппы по разнообразным признакам.
Статистическая обработка – выявление закономерностей, связывающих входные данные с ответом.
Создание и обучение нейросетей.
Создание интерфейса.
Отладка и тестирование.
Доучивание – этап, характерный только для обучающихся систем.
При создании нейроэкспертных программ сложно собрать достаточное количество данных для хорошего обучения сети. При первоначальном проектировании ЭС проводится только стартовое обучение, в последующем производится дообучение системы на основе ее работы в реальных условиях.
Нейросетевая ЭС не может быть полностью законченной и обученной и продолжает постоянно накапливать опыт в процессе эксплуатации.
№38 Функционирование нейросетевого решателя в режиме автоматического обучения
Y ’ – на тестовой выборке, Y0 – дообучение с учителем.
№39 Методы формирования значений выход-х параметров нейросети
1) фактич-я выборочная и эксперимент-я инф-я
- по данным происшедших событий
- по данным выполненных опытов и экспер-тов
2) экспертная информация
- определение пар-ра опытным экспертом
- определение группой экспетов с пом метода эксп-ой оценки
3) методы автом-го самообучения
- при помощи ЭС
- по методикам специалистов
- по известным аналитич-м зависимостям
- с исп-ем фикс-ых констант, мн-в, списков и т.д.