книги / Нечёткое, нейронное и гибридное управление
..pdfСлой 1 состоит из элементов, которые выполняют фаззификацию входных четких переменных xj j 1,...n . Элементы этого
слоя вычисляют значения степеней принадлежности функций при-
надлежности μAij xj , заданных гауссовскими функциями с параметрами aij и bij .
Рис. 3.16. Структура нечеткой нейронной продукционной сети TSK
261
Слой 2, число элементов которого равно количеству правил в базе, выполняет композицию степеней принадлежности соответствующих правил.
Слой 3 генерирует значения функций |
|
сj0 |
m |
|
, которые |
|
cij xj |
|
|||
|
|
|
j 1 |
|
|
умножаютсянарезультатывычисленийэлементамипредыдущегослоя. В слое 4 первый элемент (сумматор) служит для активизации заключений правил в соответствии со значениями агрегированных в предыдущем слое степеней принадлежности предпосылок правил. Второй элемент (сумматор) проводит вспомогательные вычисления
для последующей дефаззификации результата.
Слой 5 состоит из одного нормализующего элемента и выполняет дефаззификацию результата.
Из проведенного описания следует, что сеть TSK содержит два параметрических слоя (слой 1 и 3). Настраиваемыми в процессе обучения параметрами являются:
– в слое 1 – нелинейные параметры aij и bij функций принад-
лежности нечетких множеств фаззификатора; |
|
|||
|
– в |
слое |
3 – параметры сi0 и cij |
линейных функций |
|
m |
|
из заключений правил. |
|
сj0 |
cij xj |
|
||
|
j 1 |
|
|
|
|
При наличии n правил и m входных переменных число пара- |
|||
метров первого слоя равно 2nm, а второго – |
n m 1 . Таким обра- |
зом, суммарное число настраиваемых параметров равно n 3m 1 .
Алгоритм обучения сети TSK
Сначала рассчитываются параметры сi0 и cij линейных функций при условии фиксированных значений параметров aij и bij . Параметры сi0 и cij находятся путем решения системы линейных
уравнений.
2. Представим выходную переменную из выражения (3.1) в следующем виде
262
где
|
|
m |
xj |
|
|
|
|
Aij |
|
|
|||
wi |
|
j 1 |
|
|
|
= |
n |
mj |
|
xj |
|
||
|
μA |
|
||||
|
i 1 |
j |
ij |
|
|
|
|
|
|
|
|
|
|
|
n |
|
|
|
|
|
m |
|
|
|
|
|
y |
|
|
|
|
|
cij |
|
, |
(3.16) |
|||||
|
wi |
ci0 |
x j |
|||||||||||
|
|
|
i 1 |
|
|
|
|
j 1 |
|
|
|
|
||
m |
|
|
|
|
|
aij |
2 |
|
|
|
|
|||
|
exp |
|
|
xj |
|
|
|
|
|
|
||||
|
|
|
|
|
|
|||||||||
|
|
|
|
|
b |
|
|
|
|
|
|
|
||
j |
|
|
|
|
|
ij |
|
|
|
|
= const, i 1,...n. |
|||
n |
|
m |
|
|
|
|
|
aij |
2 |
|||||
|
|
|
|
|
|
|||||||||
|
exp |
xj |
|
|
|
|
|
|||||||
|
b |
|
|
|
||||||||||
|
|
|
|
|
|
|
|
|
|
|||||
i 1 |
|
j |
|
|
|
|
|
ij |
|
|
|
|
|
При K |
обучающих примерах x1 k ,, x2 k ,..., xm k , y k , где |
k 1,..., K , и |
замене значений выходных переменных y k значе- |
ниями эталонных переменных y k получим систему из K линейных уравнений вида
w 1 |
w 1 x 1 |
... |
w 1 x 1 |
... w 1 |
w 1 x 1 |
|||||||||||||||||
|
1 |
|
1 |
|
1 |
|
|
1 |
|
|
m |
|
|
n |
|
n |
1 |
|||||
|
2 |
|
|
2 |
|
|
2 |
|
|
2 |
|
2 |
|
|
2 |
|
|
2 |
|
2 |
||
w |
|
|
|
|
x |
|
... |
w |
|
|
x |
|
... |
w |
|
|
|
x |
|
|||
|
|
w |
|
|
|
|
|
|
|
|
w |
|
|
|||||||||
|
1 |
|
1 |
|
|
1 |
|
1 |
|
|
m |
|
n |
|
n |
1 |
||||||
... |
|
|
... |
|
... |
|
|
... |
|
... |
... |
|
|
... |
|
|||||||
|
|
|
|
|
... |
|
... |
|
|
... |
|
... |
... |
|
|
... |
|
|||||
... |
|
|
|
|
|
|
|
|
|
|||||||||||||
|
|
k |
|
w1 |
k |
|
|
k |
... |
|
k |
|
k |
... |
|
k |
|
wn |
k |
|
k |
|
w1 |
|
|
|
x1 |
w1 |
|
xm |
wn |
|
|
x1 |
... |
1 |
x |
1 |
|
|
с10 |
|
|
|
|
|
|
w |
|
m |
|
|
|
|
|
|
|
|||
|
n |
|
|
|
|
... |
y 1 |
|
||||
... |
2 |
|
x |
2 |
|
|
||||||
w |
|
|
|
|
c |
|
|
|
|
(3.17) |
||
|
n |
|
|
m |
|
|
1m |
|
y |
2 |
|
|
... |
... |
|
|
|
... |
|
|
|
|
|
||
... |
... |
|
|
|
c |
|
... |
|
|
|||
|
|
|
n0 |
|
|
k |
|
|
||||
... |
k |
|
|
k |
|
... |
|
y |
|
|
|
|
wn |
|
xm |
|
|
c |
|
|
|
|
|
||
|
|
|
|
|
|
|
nm |
|
|
|
|
где wi k – агрегированная степень истинности предпосылок по i-му правилуприпредъявлении k -говходноговектора x1 k ,, x2 k ,..., xm k .
Запишем (3.17) в сокращенном матричном виде:
W× c = y.
Размерность матрицы W равна K m 1 n, при этом обычно количество строк K значительно больше количества столбцов:
263
K m 1 n . Решение этой системы уравнений можно провести за один шаг при помощи псевдоинверсии матрицы W:
с W y W Т W 1 W Т y .
Затем после определения линейных параметров cij их фикси-
руют и рассчитывают фактические выходные сигналы сети для всех примеров, для чего используется линейная зависимость
y 1 |
|
|
|
|
2 |
|
|
y |
|
W c . |
|
y |
|
|
|
... |
|
|
|
|
k |
|
|
y |
|
|
|
Определяем вектор ошибок:
e y y .
После чего, например, по алгоритму Уидроу–Хоффа уточняем параметры
aij k t 1 аijk t С dE к k t , daij
bij k t 1 bijk t С dE к k t . dbij
После уточнения нелинейных параметров процесс адаптации параметров запускается вновь до тех пор, пока не наступит повторяемость результатов. Данный алгоритм называется гибридным. Его особенность заключается в разделении этапов процесса обучения. Гибридный алгоритм более эффективен, чем метод Уидроу– Хоффа, у которого уточнение всех параметров производится параллельно и одновременно.
264
m
В сети TSK результатом является полином сi0 cij xj , тогда
j 1
как в сети Ванга-Менделя выходная переменная представляется константой сi , которую можно рассматривать как полином нулево-
го порядка. Поэтому рассмотрим нечеткую нейронную продукционную сеть Ванга-Менделя как частный случай сети TSK.
3.5.3. Нечеткая нейронная продукционная сеть Ванга-Менделя
|
|
Описание сети Ванга-Менделя |
Сеть Anfis с применением алгоритма Ванга-Менделя основана |
||
на правилах [14]: |
|
|
Пi : |
Если xi |
есть Ai И…И xj есть Aij И…И xim есть Aim , ТО |
|
|
1 |
y Bi/ , |
j 1,...n . |
|
Данная нечеткая адаптивная сеть базируется на следующих положениях:
–входные переменные являются четкими;
–функции принадлежности всех перечисленных множеств определены функцией Гаусса;
–нечеткая импликация – нечеткое произведение;
–Т-норма – нечеткое произведение;
–композиция не производится;
–метод дефаззификации – средний центр.
Исходя из этих предпосылок нечеткий вывод для данной модели описывается следующим выражением:
μВi y sup μAi x T μAi Вi x, y
x X
sup |
|
μ |
x μ |
|
x, y |
|
||||||
x X |
|
|
Ai |
|
|
Ai Вi |
|
|
(3.18) |
|||
|
|
|
|
|
|
|
|
|
|
|||
|
|
|
|
|
|
|
|
|
|
|
||
sup |
|
μ |
|
x |
μ |
Aij |
x |
μ |
Вi |
y |
|
|
x X |
|
|
Ai |
|
|
|
|
|
|
|||
|
|
|
|
|
|
|
|
|
|
|
|
265 |
|
|
|
m |
|
|
|
sup |
|
y μAij |
xj μAij |
|
|
μВi |
xj . |
|||
|
|
|
j 1 |
|
|
|
x1 ...xm X |
|
|
Поскольку входные переменные xj ,...,xm являются четкими, (3.18) принимает следующий вид:
m
μВi y μВi y μАij xj .
j 1
Так как аккумулирования активизированных заключений правил не проводится, а методом дефаззификации является метод среднего центра, то выходная переменная определяется следующим образом:
|
|
|
n |
|
|
|
Bi y |
|
|
|
|
|
|
|
y |
arg maxy Bi y |
|
|
|
|
|
||||||
|
i 1 |
|
|
|
|
|
|
|
|
|
|||
|
|
|
n |
|
|
|
|
|
|
|
|||
|
|
|
|
Bi y |
|
|
|
|
|
|
|
||
|
|
|
|
i 1 |
|
|
|
|
|
|
|
|
|
|
n |
|
|
|
y |
|
m |
xj |
|
|
|
|
|
|
arg max μBi |
μBi y μAij |
|
|
(3.19) |
||||||||
|
i 1 |
|
y |
|
|
|
j 1 |
|
|
. |
|
|
|
|
|
|
|
|
|
|
|||||||
|
|
n |
|
y |
m |
|
|
|
|
|
|||
|
|
|
|
|
|
|
|
||||||
|
|
|
μBi |
μAij |
xj |
|
|
|
|
|
|||
|
|
|
i 1 |
|
|
j 1 |
|
|
|
|
|
|
|
С учетом того, что максимальное значение, |
которое |
B |
y |
||||||||||
|
|
|
|
|
|
|
|
|
|
|
|
i |
|
может принять в точке arg max B y , равно единице, (3.19) примет |
||||||||
|
|
|
y |
i |
|
|
|
|
вид |
|
|
|
|
|
|
|
|
|
n |
|
|
|
m |
|
|
|
|
arg max μBi y μAij |
xj |
|
|||||
y |
i 1 |
|
y |
|
j 1 |
|
. |
(3.20) |
|
|
|||||||
|
|
n |
m |
xj |
|
|||
|
|
|
|
μAij |
|
|
|
|
|
|
|
i 1 |
j 1 |
|
|
|
|
266
В случае функции принадлежности всех нечетких множеств вида функцией Гаусса выражение (3.6) примет вид
|
n |
|
|
|
|
y c |
|
|
m |
|
|
xj aij |
|
|
||
|
arg max exp |
i |
|
|
exp |
|
|
|
|
|||||||
|
di |
bij |
|
|||||||||||||
|
i 1 |
|
y |
|
|
|
|
j 1 |
|
|
|
|
||||
y |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
, |
(3.21) |
|
|
|
n |
m |
|
|
|
|
aij |
|
|
|
|
|||
|
|
|
|
|
|
|
|
|
|
|
||||||
|
|
|
|
|
exp |
xj |
|
|
|
|
|
|
||||
|
|
|
|
|
|
|
|
|
|
|
||||||
|
|
|
|
|
|
|
|
|
bij |
|
|
|
|
|
|
|
|
|
|
|
i 1 |
j 1 |
|
|
|
|
|
|
|
|
|
где ci, di – соответственно центры и ширина гауссовских функций,
представляющих собой функции принадлежности нечетких множеств Bi заключений правил; aij ,bij – соответственно центры и ши-
рина гауссовских функций, представляющих собой функции принадлежности нечетких множеств Aij предпосылок правил.
В окончательном виде (3.21) преобразуется в (3.22)
|
|
|
n |
m |
|
|
aij |
|
|
||||
|
|
|
ci exp |
xj |
|
|
|||||||
|
|
|
|
|
|||||||||
|
|
|
|
|
|
|
bij |
|
|
|
|||
y |
|
|
i 1 |
j 1 |
|
|
|
|
|
|
|||
n |
m |
|
|
aij |
. |
(3.22) |
|||||||
|
|||||||||||||
|
|
|
|
exp |
xj |
|
|
||||||
|
|
|
bij |
|
|||||||||
|
|
|
|
|
|
|
|
|
|||||
|
|
|
i 1 |
j 1 |
|
|
|
|
Структура сети Ванга-Менделя
На рис. 3.17 представлена структура нечеткой продукционной сети Ванга-Менделя, элементы слоев которой реализуют соответствующие компоненты выражения (3.22).
Вслое 2, число элементов которого равно числу количества правил в базе, осуществляется агрегирование степеней принадлежности предпосылок соответствующих правил.
Вслое 3 первый элемент служит для активизации заключений
правил сi в соответствии со значениями агрегированных в пре-
дыдущем слое степеней принадлежности предпосылок правил. Второй элемент слоя проводит вспомогательные вычисления для последующей дефаззификации результата.
267
Слой 4, состоящий из одного элемента, выполняет дефаззификацию выходной переменной.
Обучение сети Ванга-Менделя
Алгоритм обучения разделяется на две процедуры. Сначала настраиваются линейные параметры элементов третьего слоя сi , а
затем – параметры нелинейной функции принадлежности в элементах перового слоя аij и bij , где i =1,…, n; j 1,...,m .
|
|
слой1 |
|
|
|
Гаусс |
|
|
|
||
|
|
a11,b11 |
|
|
|
Гаусс |
|
|
|
||
x1 |
|
a |
12 ,b12 |
|
|
|
|
|
|
||
|
|
Гаусс |
|
|
|
||
|
|
a1 j ,b1 j |
|
|
|
|
|
|
|
Гаусс |
|
|
|
||
|
|
a1m ,b1m |
|
|
|
|
|
x2 |
|
||
|
|
Гаусс |
|
|
|
ai1 ,bi1 |
|
|
|
|
Гаусс
ai2 ,bi2
|
|
Гаусс |
||
|
|
aij ,bij |
||
xj |
|
|
|
|
|
|
Гаусс |
||
|
|
aim ,bim |
||
|
|
|
||
|
Гаусс an1 ,bn1
Гаусс an2 ,bn2
xm Гаусс
anj ,bnj
Гаусс
anm ,bnm
слой2
m
j 1
1
ci
m
j 1
i
cn
m
j 1
n
слой3 |
слой4 |
c1
n
i 1
f1
f1 y
f2
f2
n
i 1
Рис. 3.17. Структура нечеткой нейронной продукционной сети Ванга-Менделя
268
Этап
x1 k ,,x2 k
выходной
1. |
Для каждого примера |
из обучающей |
выборки |
|
,...,xm |
k ,y k , где |
k 1,..., K , |
рассчитываются |
значения |
переменной y k .
Этап 2. Вычисляется функция ошибки для всех примеров обучающей выборки:
E k 0,5 y k y k 2 , k 1,..., K.
Этап 3. Корректируются значения ci для каждого i-го правила
по каждому k-му примеру обучающей выборки исходя из соотношения
ci t 1 : ci t |
С |
dE k t |
|
, i 1,....,n , |
k 1,..., K ; |
||||||||||||
dci t |
|
||||||||||||||||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|||
|
|
y |
|
|
|
|
m |
|
|
xj |
k |
aij |
2 |
|
|||
|
|
k |
y |
k |
|
|
|
|
|
||||||||
|
|
|
|
|
exp |
|
|
|
2 |
|
|
|
|||||
|
|
|
|
|
|
|
|
j 1 |
|
|
|
bij |
|
|
|
||
ci t 1 : ci t С |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
, |
|
|
|
|
n |
m |
|
|
(x k a )2 |
|
|
|
||||||
|
|
|
|
|
|
|
|
|
|||||||||
|
|
|
|
|
exp |
|
j |
|
ij |
|
|
|
|
|
|||
|
|
|
|
|
|
|
2 |
|
|
|
|
|
|||||
|
|
|
|
|
|
|
|
|
|
|
bij |
|
|
|
|
|
|
|
|
|
|
|
i 1 j 1 |
|
|
|
|
|
|
|
|
|
|||
Процедура корректировки значений сi |
(этапы 1–3) итерацион- |
но повторяется и считается завершенной, если:
– либо значение функции ошибки по каждому примеру обучающей выборки не превышает некоторого установленного порога:
E k , k 1,..., K ;
– либо оценка средней суммарной погрешности нечеткой продукционной модели с учетом всех примеров обучающей выборки не превышает некоторого установленного порога:
269
E 1 K y k y k 2 ;
K k 1
– либо погрешность стабилизировалась на некотором значении
.
В первых двух случаях считается, что нечеткая сеть успешно обучалась, в третьем случае переходят к процедуре настройки параметров нелинейной функций принадлежности аij и bij в элемен-
тах перового слоя.
При выполнении процедуры корректировки значений аij и bij в
элементах первого слоя этапы 1 и 2 выполняются аналогично этапам процедуры корректировки сi . На заключительном этапе этой
процедуры значения аij и bij |
изменяются в соответствии со сле- |
|||||||||||||||
дующими выражениями: |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
aij t 1 : aij t С |
dE k t |
|
|
|
|
|
|
|
|
|
|||||
|
|
dai t |
|
|
|
|
|
|
|
|
||||||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
m |
|
|
|
|
x k a |
2 |
||||
|
2 xj k aij y k y k ci y k exp |
|
j |
ij |
|
|
||||||||||
|
bij |
|||||||||||||||
|
|
|
|
|
|
j 1 |
|
|
|
|
|
|
|
|
||
aij t C |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
. |
n |
m |
|
x k a |
|
2 |
|
|
|
|
|||||||
|
|
|
|
|
|
|
||||||||||
|
bij2 exp |
|
|
j |
ij |
|
|
|
|
|
|
|
||||
|
bij |
|
|
|
|
|
|
|||||||||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
||
|
i 1 |
j 1 |
|
|
|
|
|
|
|
|
|
|
|
|
Условиязавершениякорректировкизначений аij и bij подобны сi .
В случае невыполнения первого или второго условия процесс итерационно повторяется, начиная с корректировки сi , до тех пор,
пока нечеткая сеть не будет корректно обучена.
Сеть Ванга-Менделя, отличаясь простотой с вычислительной точки зрения и большой чувствительностью к изменениям входных переменных, где реализован градиентный метод оптимизации фрон-
270