Добавил:
Upload Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:
Переклад 141-177.docx
Скачиваний:
12
Добавлен:
05.03.2016
Размер:
1.13 Mб
Скачать

7. Синергетичний комп’ютер

Дана мережа запропонована засновником синергетики Х.Хаке- ном [87, 88] як ШНМ, функціонування якої може бути пояснене із синергетичної точки зору. Ця мережа має багато спільного з ме­режею Гопфілда й більш того, може розглядатися як один з її ва­ріантів, що працює з аналоговими сигналами. Цей комп’ютер від­носиться до асоціаторів, а збережені в ньому образи можуть бути інтерпретовані як локальні енергетичні мінімуми. Відмінність його від мережі Гопфілда полягає в тому, що його нейрони не міс­тять нелінійностей, оскільки нелінійне перетворення здійсню­ється спеціальним модулем. Принцип побудови «синергетичного комп’ютера» наведено на рис. 7.1.

Рис. 7.1. Синергетичний комп’ютер

ШНМ складається із вхідного шару, на який надходить зашум- лений або спотворений N-вимірний образ, що відповідає одному з М збережених . Вхідний вектор х перетвориться нейронним шаром з ваговою матрицею Вихідним сигналом шару єМ-вимірний вектор у, кількість компонент якого збігається із кількістю збережених образів. Цей вектор у подається на модуль, описуваний системою нелінійних диференціальних рівнянь, що після деякої кількості ітерацій обчислює нові значення компонент векторау. Вектор у зі знову обчисленими компонентами пода­ється на наступний шар через матрицю Вихідним сигналом останнього шарує N-вимірний вектор, що відповідає образу. Отже, асоціативний виклик накопиченого образу здійснюється подачею на вхід вектора х.

Вибір значень елементів матриць йдуже простий — вони визначаються безпосередньо векторами збережених образів за формулою

Щоб простіше було зрозуміти роботу мережі, розглянемо окремі етапи обчислення вихідного образу.

Вихідний сигнал першого шару визначається як

тобто є скалярним добутком векторів іх, що тим більше, чим ближче розташовані ці вектори. Таким чином, компоненти вихід­ного сигналу у характеризують міру подібності накопиченого об­разу пропонованому х, і якщо пропонований образ х буде най­ближчим до збереженого , компонентаm* вихідного сигналу матиме найбільше значення. Компоненти є початко­вими значеннями компонентів вектора y, що обчислюють за такою рекурсивною формулою:

Це рівняння можна розглядати як рівняння руху тіла в потен­ціальному полі, на яке діє сила, що задається похідною потенці­альної функції по координатах тіла.

Вибираючи відповідну потенційну функцію у вигляді

й обчислюючи рівняння руху як

можна отримати (7.3). Рівняння (7.5) відповідає градієнтному ме­тоду пошуку локального мінімуму. Можна показати, що найбіль­ший компонент збігається до одиниці, а інші — до нуля. Таким чином, завдання (7.3) полягає у тому, щоб збільшити значення найбільшого компонента й зменшити значення всіх інших. Піс­ля рекурсивних обчислень відповідно до (7.3) тільки один компо­нент вихідного вектора дорівнюватиме одиниці, а інші — нулю. Цей вектор передається з ваговою матрицею на інший шар (ви­хідний)

Оскільки компоненти матриці обрані відповідно до (7.1), то при надходженні на цей шар сигналуу, всі компоненти якого, крім од­нієї, ї, рівної одиниці, дорівнюють нулю, відповідний вихідний векторіточно відповідатиме-му образу, що навчає.

Якщо образи , що навчають, ортонормовані в М-вимірному просторі, то подання вхідного вектора х й обчислення у за форму­лою (7.2) є не що інше, як обчислення проекції х на М базисних векторів. А рекурсивне обчислення (7.3) і збіжність до 1 означає, що застосування (7.3) повертає х до того базисного вектора, про­екція на який у нього найбільша. Після рекурсивних обчислень вектор у ідентичний цьому базисному вектору. У зв’язку з тим, що сигнал у містить тільки одну одиницю, а всі інші компоненти нульові, дана система завжди зводить вхідний вектор х до однієї з базисних функцій. Оскільки система (7.3) випливає з потенційної функції (7.4), то базисні вектори тощо є міні­мумами потенціальній функції. А у зв’язку з тим, що базисні век­тори шляхом координатної трансформації з’являються у вигляді навчальних образів, це означає, що дані образи є мінімумами потенційної функції (7.4). Отже, як й у мережі Гопфілда, для об­разів «синергетичного комп’ютера», що навчають, можна задати енергетичну (потенційну) функцію, мінімуми якої відповідають цим образам. Пропонований мережі вхідний образ х збігається до того мінімуму, в області притягання (околі) якого він перебуває.

На завершення слід зазначити, що «синергетичним комп’ю­тером» ця мережа була названа тому, що основним принципом синергетики є встановлення (аналіз) стаціонарних станів дина­мічної системи, що залежать від початкових умов й областей при­тягання стаціонарних точок системи. Тому система рівнянь на рис. 7.1 описує синергетический модуль ШНМ. Перетворений першим шаром за допомогою вагової матриці вхідний сигналх подається в системі координат, базисні вектори якої є мінімумами синергетичної системи, що характеризується потенційною функцією (7.4) й описується співвідношеннями (7.3) і (7.4). Рекурсивне обчислення (7.3) дозволяє досягти локального мінімуму, тобто базисного вектора, в області притягання якого пе­ребуває трансформований вхідний вектор х. Другий шар мережі за допомогою матриці здійснює зворотну трансформацію базисно­го вектора в область образів, що навчають, і викликає асоціативно вектор образів, що відповідає мінімуму потенційної функції.

Слід зазначити, що кількість збережених образів М не може бути більше розмірності образу N.

На відміну від мережі Гопфілда, «синергетичний комп’ютер» не має нестійких станів (spurious states). Це пояснюється тим, що його динамічний модуль завжди збігається до одного з базис­них векторів. А оскільки завжди в процесі навчання тільки один компонент у дорівнюватиме одиниці, а всі інші нулю, то й завж­ди забезпечується виклик одного з образів шляхом обчислення

Контрольні запитання

  1. Якою є структура синергетичного комп’ютера?

  2. Як відбувається навчання синергетичного комп’ютера?

  3. У чому відмінність синергетичного комп’ютера від мережі Гопфілда?