- •Глава 5. Нейросетевые методы распознавания и аппроксимации
- •5.1 Принципы организации и классификация нейронных сетей
- •5.2 Формальный нейрон. Однослойный персептрон
- •5.3 Многослойный персептрон
- •5.3.1 Модель сети
- •5.3.2 Обучение многослойного персептрона
- •Да: перейти на шаг 11. Нет: Перейти на шаг 13.
- •Да: Окончание поиска: нет продвижения к решению. Перейти на шаг 13.
- •Алгоритмы сопряженных градиентов представляют собой подкласс квадратично сходящихся методов. Для алгоритмов сопряженных градиентов шаг 6 обобщенного градиентного алгоритма имеет вид:
- •5.3.3 Следящий алгоритм обучения мнс
- •5.4 Радиально-базисные нейронные сети
- •5.5 Нейронные сети Хопфилда
- •5.5.1 Модель сети Хопфилда
- •5.5.2 Обучение сети Хопфилда распознаванию образов
- •5.5.3 Эффект разнасыщения
- •5.6 Нейронная сеть Хэмминга
- •5.7 Машина Больцмана
- •5.8 Двунаправленная ассоциативная память
- •5.9 Нейросетевой селектор максимума
- •5.10 Карта признаков самоорганизации Кохонена
- •5.10.2 Интерпретация результатов классификации нс Кохонена
- •Блок кпск-азу может быть рекомендован для использования в системах классификации в случае, когда:
- •5.10.3 Выбор метрики и учет информативности признаков
- •Шаг 3. Произвести обучение блока кпск-азу на всей выборке X
- •5.11 Квантование обучающих векторов
- •5.11.1 Модель сети
- •5.11.2 Алгоритм обучения lvq1
- •5.11.3 Алгоритм обучения lvq2
- •5.11.4 Алгоритм обучения lvq3
- •5.11.5 Алгоритм обучения olvq1
- •5.12 Контрастирование нейронных сетей
- •Алгоритм построения и оптимизации модели объекта.
- •Алгоритм контрастирования многослойной нейронной сети.
5.9 Нейросетевой селектор максимума
В задачах классификации часто требуется выделить вход, имеющий максимальное значение. Для выполнения данной операции могут использоваться НС с латеральным торможением.
Алгоритм селекции максимума, выполняемый сетью, приведен в ниже.
Шаг 1.Сети предъявляются Nвходных величин х1,х2,...,xN, из которых она должна выбрать максимальную, и инициализируются ее выходы, где-выход i-гоузла в момент времени t.
Шаг 2.Производятся итеративные вычисления по правилу
,
где f - кусочно-линейная функция.
Итерации продолжаются до тех пор, пока не будет достигнута сходимость, посте которой положительным остается выход только одного узла сети.
После инициализации выходов сети входными значениями начинаются итерационные вычисления, которые продолжаются до тех пор, пока не будет достигнута сходимость, после чего оставшийся положительным выход будет соответствовать максимальному входному значению. Если используемая в алгоритме величинаменьше1/N,то данный алгоритм будет сходиться и положительным останется лишь один выход.
5.10 Карта признаков самоорганизации Кохонена
5.10.1 Формирование сети Кохонена
Карта признаков самоорганизации Кохонена (Kohonen Self-organizing Map – КПСК, SOM) является НС с латеральным торможением и относится к классификаторам, для обучения которых используются выборки образов с заранее не заданной классификацией.
Задачей сети является определение принадлежности входного вектора признаков s-го экземпляра выборки хs ={хs1, хs2, ..., xsN}T к одному из L возможных кластеров, представленных векторными центрами wj={wj1,wj2,...,wjN}T, j=1,2, ..., L , где T –символ транспонирования.
Обозначим i-ю компоненту входного вектора xs в момент времени t как xsi (t), а вес i-го входа j-го узла в момент времени t как wij(t).
Если узлы КПСК являются линейными, а вес i-го входа j-го узла равен wij, i=1,.2,...,N, j=1,2,...,L, то, очевидно, что при соответствующих значениях порогов каждый i-й выход сети с точностью до несущественных постоянных будет равен евклидовому расстоянию dj между предъявленным входным вектором xsi и j-м центром кластера.
Считается, что вектор хs принадлежит к j-му кластеру, если расстояние dj для j-го центра кластера wj минимально, то есть если dj ≤ dk для каждого k≠j.
При обучении НС предъявляются входные векторы без указания желаемых выходов и корректируются веса согласно алгоритму, который предложил Теуво Кохонен. Алгоритм Кохонена, формирующий карты признаков, требует, чтобы возле каждого узла было определено поле NE, размер которого с течением времени постоянно уменьшается.
Шаг 1. Инициализируются веса входов узлов малыми случайными значениями. Устанавливается начальный размер поля NE.
Шаг 2. Предъявляется новый входной вектор xs.
Шаг 3. Вычисляется расстояние (метрика) djмежду входным вектором и каждым выходным узлом j:
.
Шаг 4. Определяется узел j* с минимальным расстоянием dj.
Шаг 5. Корректируются веса входов узлов, находящихся в поле NEj(t) узла j*, таким образом, чтобы новые значения весов были равны
,
При этом корректирующее приращение η(t) (0< η(t)<1) должно убывать с ростом t.
Шаг 6. Если сходимость не достигнута, то перейти к шагу 2.
Сходимость считается достигнутой, если веса стабилизировались и корректирующее приращение η в шаге 5 снизилось до нуля.
Если число входных векторов в обучающем множестве велико по отношению к выбранному числу кластеров, то после обучения веса сети будут определять центры кластеров, распределенные в пространстве входов таким образом, что функция плотности этих центров будет аппроксимировать функцию плотности вероятности входных векторов. Кроме того, веса будут организованы таким образом, что топологически близкие узлы будут соответствовать физически близким (в смысле евклидова расстояния) входным векторам.
Из выше изложенного следует, что КПСК способны разделять экземпляры по степени близости их признаков. Это позволяет применять КПСК для выделения центров сосредоточения экземпляров, что может быть использовано при планировании обучающего эксперимента, в случае, когда большое количество опытов ставить затруднительно, например, по причине дороговизны или уникальности изделий. Планирование обучающего эксперимента в этом случае может быть проведено следующим образом: на основании значений признаков всех экземпляров обучающей выборки производится формирование КПСК, а затем для экземпляров, которые наиболее близки к сформированным векторным центрам КПСК, проводятся эксперименты по определению фактических классов.