Добавил:
Upload Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:
!!!Интелект шпоры!!!.doc
Скачиваний:
5
Добавлен:
17.04.2019
Размер:
473.6 Кб
Скачать

40. Понятие логически прозрачных нейронных систем.

Сеть называется логически прозрачной, если на основе ее стр-ры можно построить вербольное описание алгоритма получения ответа.

Сеть называется логически прозрачной, если на основе ее стр-ры можно построить вербольное описание алгоритма получения ответа.

Действительно, можно описать функционирование сети как пересылку, суммирование и преобразование большого числа сигналов, но понятийная интерпретация крайне затруднена. Этот факт называется логической непрозрачностью нейронной сети.

Критерии логической прозрачности нейросетевых архитектур не должны обязательно совпадать с критериями наиболее простой технической или программной реализуемости сети - это все-же разные задачи. Перечислим эти критерии:

1. чем меньше нейронов в каждом из имеющихся путей прохождения сигналов в сети от входа к выходу, тем сеть логически прозрачнее

2. Уменьшение числа входных сигналов сети (признаковое "шумовое поле)

3. Контрастирование НС – сведение ее связей до минимума для данных.

4. Уменьшение числа приходящих на нейрон сигналов. Минимизируя число приходящих на нейрон сигналов, мы облегчаем пользователю задачу содержательного осмысления признака, генерируемого нейроном, и, может быть, помогаем в именовании этого признака.

5. Уменьшение общего числа синапсов в сети.

6. Синапс, по которому передается сигнал, логически непрозрачнее неоднородного входа нейрона.

7. приведение значений настраиваемых параметров сети к конечному набору выделенных значений.

Для получения ЛП НС используются 2 основных этапа:

1) Контрастирование нс – сведение ее связей до минимума для данных 2)Вербальное описание (формирование явных знаний).

41. Схема работы интеллектуального компонента прогнозирования временных рядов показателей.

  1. Из обучающий выборке берется текущий пример, его входные параметры

  2. НС производит заданное количество тактов функционирования.

  3. Изменяются сигналы, выданные теми нейронами, которые считаются выходными

  4. Производится интерпретация выходных сигналов и выч-ся оценка, хар-ая различия м/у выданным сетью ответом и требуемым, имеющимся в примере.

5) Проверяется значение оценки, если она меньше заданной точности, то обучение завершено. Иначе, на основании оценки вычисляются поправочные коэфф-ты для каждого синаптич. веса матрицы связей. После чего производится корректировка синаптических весов.

  1. Осуществляется период к следующему примеру задачника и вышеперечисленные операции повторяются.

Проход по всем примерам обучающей выборки с первого по последний считается одним циклом обучения.

При прохождении цикла кжд пример имеет свою оценку. Кроме того, вычисляется суммарная оценка мн-ва всех примеров обучающей выборки. Если после прохождения нескольких циклов ошибка < заданной точности, то обучение считается законченным, в противном случае циклы повторяются. Кол-во циклов обучения, а также время, требующееся на обучение зависит от многих факторов – величины обучающей выборки, кол-ва вход. пар-ров, вида задачи, типа и пар-ров НС, от случ. значений весов синаптич. карты.

Причины неправильного обучения НС

1) выборка, по кот-й обуч-сь НС не дост-но полно отражает ПО (мало примеров)

2) выборка, по кот-й обуч-сь НС составлена тенденциозно, ( из самых яркими представ-ми класса.)

3) обуч-я выборка имеет недост-е кол-во пар-ров и сеть не м. найти законом-ти м/у вх-ми сигналами и ответами.

4) при создании сети не рац-но были выбраны нек-е сетевые пар-ры – число нейронов, число тактов функционир-я и проч.

5) задана неверная классификационная модель при обучении классификатора.

42 Методы обучения нейронных сетей ()

В контексте ИНС процесс обучения может рассматриваться как настрой­ка архитектуры сети и весов связей для эффективного выполнения специ­альной задачи. Обычно нейронная сеть должна настроить веса связей по имеющейся обучающей выборке. Функционирование сети улучшается по мере итеративной настройки весовых коэффициентов.

Существуют три парадигмы обучения: «с учителем», «без учителя» (самообучение) и смешанная.

Для обучения с учителем нужен «внешний» учитель, который оценивал бы поведение системы и управлял ее последующими модификациями. При обучении без учителя, сеть путем самоорганизации делает требуемые изменения. При смешанном обучении часть весов определяется посредством обучения с учителем, в то время как остальная получается с помощью самообучения.

Общая схема обучения нейросети: (спроси надо или нет эту схему)

  1. Из обучающий выборке берется текущий пример, его входные параметры (представляющие совокупности вектор входных сигналов) подаются на входные синапсы обучаемой НС. Обычно кжд входной пар-р примера подается на один конкр. синапс.

  2. НС производит заданное количество тактов функционирования. При этом вектор входящих сигналов распространяется по связям между нейронами. (прямое функц-ие НС) Процедура однократного прохождения сигналов по НС называется тактом функционирования

  3. Изменяются сигналы, выданные теми нейронами, которые считаются выходными

  4. Производится интерпретация выходных сигналов и выч-ся оценка, хар-ая различия м/у выданным сетью ответом и требуемым, имеющимся в примере. Оценка осущ-ся с пом. соотв-ей ф-ции оценки – методом наим. квадратов.

5) Проверяется значение оценки, если она меньше заданной точности, то обучение завершено. Иначе, на основании оценки вычисляются поправочные коэфф-ты для каждого синаптич. веса матрицы связей. После чего производится корректировка синаптических весов. (обратное функционирование НС).

  1. Осуществляется период к следующему примеру задачника и вышеперечисленные операции повторяются.

Проход по всем примерам обучающей выборки с первого по последний считается одним циклом обучения.

!!

Метод обучения Хэбба. Его теория предполагает только локальное взаимодействие между нейронами при отсутствии глобального учителя; следовательно, обучение является неуправляемым.

-Метод сигнального обучения Хэбба