Добавил:
Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:

книги / Нечёткое, нейронное и гибридное управление

..pdf
Скачиваний:
5
Добавлен:
12.11.2023
Размер:
3.91 Mб
Скачать

Слой 1 состоит из элементов, которые выполняют фаззификацию входных четких переменных xj j 1,...n . Элементы этого

слоя вычисляют значения степеней принадлежности функций при-

надлежности μAij xj , заданных гауссовскими функциями с параметрами aij и bij .

Рис. 3.16. Структура нечеткой нейронной продукционной сети TSK

261

Слой 2, число элементов которого равно количеству правил в базе, выполняет композицию степеней принадлежности соответствующих правил.

Слой 3 генерирует значения функций

 

сj0

m

 

, которые

 

cij xj

 

 

 

 

j 1

 

 

умножаютсянарезультатывычисленийэлементамипредыдущегослоя. В слое 4 первый элемент (сумматор) служит для активизации заключений правил в соответствии со значениями агрегированных в предыдущем слое степеней принадлежности предпосылок правил. Второй элемент (сумматор) проводит вспомогательные вычисления

для последующей дефаззификации результата.

Слой 5 состоит из одного нормализующего элемента и выполняет дефаззификацию результата.

Из проведенного описания следует, что сеть TSK содержит два параметрических слоя (слой 1 и 3). Настраиваемыми в процессе обучения параметрами являются:

– в слое 1 – нелинейные параметры aij и bij функций принад-

лежности нечетких множеств фаззификатора;

 

 

– в

слое

3 – параметры сi0 и cij

линейных функций

 

m

 

из заключений правил.

 

сj0

cij xj

 

 

j 1

 

 

 

 

При наличии n правил и m входных переменных число пара-

метров первого слоя равно 2nm, а второго –

n m 1 . Таким обра-

зом, суммарное число настраиваемых параметров равно n 3m 1 .

Алгоритм обучения сети TSK

Сначала рассчитываются параметры сi0 и cij линейных функций при условии фиксированных значений параметров aij и bij . Параметры сi0 и cij находятся путем решения системы линейных

уравнений.

2. Представим выходную переменную из выражения (3.1) в следующем виде

262

где

 

 

m

xj

 

 

 

Aij

 

 

wi

 

j 1

 

 

 

=

n

mj

 

xj

 

 

μA

 

 

i 1

j

ij

 

 

 

 

 

 

 

 

 

 

 

n

 

 

 

 

 

m

 

 

 

 

 

y

 

 

 

 

 

cij

 

,

(3.16)

 

wi

ci0

x j

 

 

 

i 1

 

 

 

 

j 1

 

 

 

 

m

 

 

 

 

 

aij

2

 

 

 

 

 

exp

 

 

xj

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

b

 

 

 

 

 

 

 

j

 

 

 

 

 

ij

 

 

 

 

= const, i 1,...n.

n

 

m

 

 

 

 

 

aij

2

 

 

 

 

 

 

 

exp

xj

 

 

 

 

 

 

b

 

 

 

 

 

 

 

 

 

 

 

 

 

i 1

 

j

 

 

 

 

 

ij

 

 

 

 

 

При K

обучающих примерах x1 k ,, x2 k ,..., xm k , y k , где

k 1,..., K , и

замене значений выходных переменных y k значе-

ниями эталонных переменных y k получим систему из K линейных уравнений вида

w 1

w 1 x 1

...

w 1 x 1

... w 1

w 1 x 1

 

1

 

1

 

1

 

 

1

 

 

m

 

 

n

 

n

1

 

2

 

 

2

 

 

2

 

 

2

 

2

 

 

2

 

 

2

 

2

w

 

 

 

 

x

 

...

w

 

 

x

 

...

w

 

 

 

x

 

 

 

w

 

 

 

 

 

 

 

 

w

 

 

 

1

 

1

 

 

1

 

1

 

 

m

 

n

 

n

1

...

 

 

...

 

...

 

 

...

 

...

...

 

 

...

 

 

 

 

 

 

...

 

...

 

 

...

 

...

...

 

 

...

 

...

 

 

 

 

 

 

 

 

 

 

 

k

 

w1

k

 

 

k

...

 

k

 

k

...

 

k

 

wn

k

 

k

w1

 

 

 

x1

w1

 

xm

wn

 

 

x1

...

1

x

1

 

 

с10

 

 

 

 

 

w

 

m

 

 

 

 

 

 

 

 

n

 

 

 

 

...

y 1

 

...

2

 

x

2

 

 

w

 

 

 

 

c

 

 

 

 

(3.17)

 

n

 

 

m

 

 

1m

 

y

2

 

...

...

 

 

 

...

 

 

 

 

 

...

...

 

 

 

c

 

...

 

 

 

 

 

n0

 

 

k

 

 

...

k

 

 

k

 

...

 

y

 

 

 

wn

 

xm

 

 

c

 

 

 

 

 

 

 

 

 

 

 

 

nm

 

 

 

 

где wi k – агрегированная степень истинности предпосылок по i-му правилуприпредъявлении k -говходноговектора x1 k ,, x2 k ,..., xm k .

Запишем (3.17) в сокращенном матричном виде:

W× c = y.

Размерность матрицы W равна K m 1 n, при этом обычно количество строк K значительно больше количества столбцов:

263

K m 1 n . Решение этой системы уравнений можно провести за один шаг при помощи псевдоинверсии матрицы W:

с W y W Т W 1 W Т y .

Затем после определения линейных параметров cij их фикси-

руют и рассчитывают фактические выходные сигналы сети для всех примеров, для чего используется линейная зависимость

y 1

 

 

 

2

 

 

y

 

W c .

y

 

 

...

 

 

 

k

 

y

 

 

 

Определяем вектор ошибок:

e y y .

После чего, например, по алгоритму Уидроу–Хоффа уточняем параметры

aij k t 1 аijk t С dE к k t , daij

bij k t 1 bijk t С dE к k t . dbij

После уточнения нелинейных параметров процесс адаптации параметров запускается вновь до тех пор, пока не наступит повторяемость результатов. Данный алгоритм называется гибридным. Его особенность заключается в разделении этапов процесса обучения. Гибридный алгоритм более эффективен, чем метод Уидроу– Хоффа, у которого уточнение всех параметров производится параллельно и одновременно.

264

m

В сети TSK результатом является полином сi0 cij xj , тогда

j 1

как в сети Ванга-Менделя выходная переменная представляется константой сi , которую можно рассматривать как полином нулево-

го порядка. Поэтому рассмотрим нечеткую нейронную продукционную сеть Ванга-Менделя как частный случай сети TSK.

3.5.3. Нечеткая нейронная продукционная сеть Ванга-Менделя

 

 

Описание сети Ванга-Менделя

Сеть Anfis с применением алгоритма Ванга-Менделя основана

на правилах [14]:

 

Пi :

Если xi

есть Ai И…И xj есть Aij И…И xim есть Aim , ТО

 

 

1

y Bi/ ,

j 1,...n .

 

Данная нечеткая адаптивная сеть базируется на следующих положениях:

входные переменные являются четкими;

функции принадлежности всех перечисленных множеств определены функцией Гаусса;

нечеткая импликация – нечеткое произведение;

Т-норма – нечеткое произведение;

композиция не производится;

метод дефаззификации – средний центр.

Исходя из этих предпосылок нечеткий вывод для данной модели описывается следующим выражением:

μВi y sup μAi x T μAi Вi x, y

x X

sup

 

μ

x μ

 

x, y

 

x X

 

 

Ai

 

 

Ai Вi

 

 

(3.18)

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

sup

 

μ

 

x

μ

Aij

x

μ

Вi

y

 

x X

 

 

Ai

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

265

 

 

 

m

 

 

 

sup

 

y μAij

xj μAij

 

 

μВi

xj .

 

 

 

j 1

 

 

 

x1 ...xm X

 

 

Поскольку входные переменные xj ,...,xm являются четкими, (3.18) принимает следующий вид:

m

μВi y μВi y μАij xj .

j 1

Так как аккумулирования активизированных заключений правил не проводится, а методом дефаззификации является метод среднего центра, то выходная переменная определяется следующим образом:

 

 

 

n

 

 

 

Bi y

 

 

 

 

 

 

y

arg maxy Bi y

 

 

 

 

 

 

i 1

 

 

 

 

 

 

 

 

 

 

 

 

n

 

 

 

 

 

 

 

 

 

 

 

Bi y

 

 

 

 

 

 

 

 

 

 

 

i 1

 

 

 

 

 

 

 

 

 

n

 

 

 

y

 

m

xj

 

 

 

 

 

arg max μBi

μBi y μAij

 

 

(3.19)

 

i 1

 

y

 

 

 

j 1

 

 

.

 

 

 

 

 

 

 

 

 

 

 

n

 

y

m

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

μBi

μAij

xj

 

 

 

 

 

 

 

 

i 1

 

 

j 1

 

 

 

 

 

 

С учетом того, что максимальное значение,

которое

B

y

 

 

 

 

 

 

 

 

 

 

 

 

i

 

может принять в точке arg max B y , равно единице, (3.19) примет

 

 

 

y

i

 

 

 

 

вид

 

 

 

 

 

 

 

 

 

n

 

 

 

m

 

 

 

arg max μBi y μAij

xj

 

y

i 1

 

y

 

j 1

 

.

(3.20)

 

 

 

 

n

m

xj

 

 

 

 

 

μAij

 

 

 

 

 

 

i 1

j 1

 

 

 

 

266

В случае функции принадлежности всех нечетких множеств вида функцией Гаусса выражение (3.6) примет вид

 

n

 

 

 

 

y c

 

 

m

 

 

xj aij

 

 

 

arg max exp

i

 

 

exp

 

 

 

 

 

di

bij

 

 

i 1

 

y

 

 

 

 

j 1

 

 

 

 

y

 

 

 

 

 

 

 

 

 

 

 

 

 

 

,

(3.21)

 

 

 

n

m

 

 

 

 

aij

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

exp

xj

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

bij

 

 

 

 

 

 

 

 

 

 

i 1

j 1

 

 

 

 

 

 

 

 

 

где ci, di – соответственно центры и ширина гауссовских функций,

представляющих собой функции принадлежности нечетких множеств Bi заключений правил; aij ,bij – соответственно центры и ши-

рина гауссовских функций, представляющих собой функции принадлежности нечетких множеств Aij предпосылок правил.

В окончательном виде (3.21) преобразуется в (3.22)

 

 

 

n

m

 

 

aij

 

 

 

 

 

ci exp

xj

 

 

 

 

 

 

 

 

 

 

 

 

 

 

bij

 

 

 

y

 

 

i 1

j 1

 

 

 

 

 

 

n

m

 

 

aij

.

(3.22)

 

 

 

 

 

exp

xj

 

 

 

 

 

bij

 

 

 

 

 

 

 

 

 

 

 

 

 

i 1

j 1

 

 

 

 

Структура сети Ванга-Менделя

На рис. 3.17 представлена структура нечеткой продукционной сети Ванга-Менделя, элементы слоев которой реализуют соответствующие компоненты выражения (3.22).

Вслое 2, число элементов которого равно числу количества правил в базе, осуществляется агрегирование степеней принадлежности предпосылок соответствующих правил.

Вслое 3 первый элемент служит для активизации заключений

правил сi в соответствии со значениями агрегированных в пре-

дыдущем слое степеней принадлежности предпосылок правил. Второй элемент слоя проводит вспомогательные вычисления для последующей дефаззификации результата.

267

Слой 4, состоящий из одного элемента, выполняет дефаззификацию выходной переменной.

Обучение сети Ванга-Менделя

Алгоритм обучения разделяется на две процедуры. Сначала настраиваются линейные параметры элементов третьего слоя сi , а

затем – параметры нелинейной функции принадлежности в элементах перового слоя аij и bij , где i =1,…, n; j 1,...,m .

 

 

слой1

 

 

Гаусс

 

 

 

 

a11,b11

 

 

Гаусс

 

 

x1

 

a

12 ,b12

 

 

 

 

 

 

 

Гаусс

 

 

 

 

a1 j ,b1 j

 

 

 

 

 

 

Гаусс

 

 

 

 

a1m ,b1m

 

 

 

x2

 

 

 

Гаусс

 

 

ai1 ,bi1

 

 

 

Гаусс

ai2 ,bi2

 

 

Гаусс

 

 

aij ,bij

xj

 

 

 

 

 

Гаусс

 

 

aim ,bim

 

 

 

 

Гаусс an1 ,bn1

Гаусс an2 ,bn2

xm Гаусс

anj ,bnj

Гаусс

anm ,bnm

слой2

m

j 1

1

ci

m

j 1

i

cn

m

j 1

n

слой3

слой4

c1

n

i 1

f1

f1 y

f2

f2

n

i 1

Рис. 3.17. Структура нечеткой нейронной продукционной сети Ванга-Менделя

268

Этап

x1 k ,,x2 k

выходной

1.

Для каждого примера

из обучающей

выборки

,...,xm

k ,y k , где

k 1,..., K ,

рассчитываются

значения

переменной y k .

Этап 2. Вычисляется функция ошибки для всех примеров обучающей выборки:

E k 0,5 y k y k 2 , k 1,..., K.

Этап 3. Корректируются значения ci для каждого i-го правила

по каждому k-му примеру обучающей выборки исходя из соотношения

ci t 1 : ci t

С

dE k t

 

, i 1,....,n ,

k 1,..., K ;

dci t

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

y

 

 

 

 

m

 

 

xj

k

aij

2

 

 

 

k

y

k

 

 

 

 

 

 

 

 

 

 

exp

 

 

 

2

 

 

 

 

 

 

 

 

 

 

 

j 1

 

 

 

bij

 

 

 

ci t 1 : ci t С

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

,

 

 

 

 

n

m

 

 

(x k a )2

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

exp

 

j

 

ij

 

 

 

 

 

 

 

 

 

 

 

 

2

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

bij

 

 

 

 

 

 

 

 

 

 

 

i 1 j 1

 

 

 

 

 

 

 

 

 

Процедура корректировки значений сi

(этапы 1–3) итерацион-

но повторяется и считается завершенной, если:

– либо значение функции ошибки по каждому примеру обучающей выборки не превышает некоторого установленного порога:

E k , k 1,..., K ;

– либо оценка средней суммарной погрешности нечеткой продукционной модели с учетом всех примеров обучающей выборки не превышает некоторого установленного порога:

269

E 1 K y k y k 2 ;

K k 1

– либо погрешность стабилизировалась на некотором значении

.

В первых двух случаях считается, что нечеткая сеть успешно обучалась, в третьем случае переходят к процедуре настройки параметров нелинейной функций принадлежности аij и bij в элемен-

тах перового слоя.

При выполнении процедуры корректировки значений аij и bij в

элементах первого слоя этапы 1 и 2 выполняются аналогично этапам процедуры корректировки сi . На заключительном этапе этой

процедуры значения аij и bij

изменяются в соответствии со сле-

дующими выражениями:

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

aij t 1 : aij t С

dE k t

 

 

 

 

 

 

 

 

 

 

 

dai t

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

m

 

 

 

 

x k a

2

 

2 xj k aij y k y k ci y k exp

 

j

ij

 

 

 

bij

 

 

 

 

 

 

j 1

 

 

 

 

 

 

 

 

aij t C

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

.

n

m

 

x k a

 

2

 

 

 

 

 

 

 

 

 

 

 

 

bij2 exp

 

 

j

ij

 

 

 

 

 

 

 

 

bij

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

i 1

j 1

 

 

 

 

 

 

 

 

 

 

 

 

Условиязавершениякорректировкизначений аij и bij подобны сi .

В случае невыполнения первого или второго условия процесс итерационно повторяется, начиная с корректировки сi , до тех пор,

пока нечеткая сеть не будет корректно обучена.

Сеть Ванга-Менделя, отличаясь простотой с вычислительной точки зрения и большой чувствительностью к изменениям входных переменных, где реализован градиентный метод оптимизации фрон-

270