Добавил:
Upload Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:
Переклад 141-177.docx
Скачиваний:
12
Добавлен:
05.03.2016
Размер:
1.13 Mб
Скачать

6.5. Асоціативна мережа вsв

На відміну від розглянутих вище статичних схем асоціативної пам’яті, ця мережа реалізує динамічну АП. Ця мережа, що є ре­курсивною автоасоціативною пам’яттю, запропонована Дж. Ан- дерсоном й ін. [86]. Свою назву Brain-State-іn-а-Вох (BSB) вона отримала через те, що її стан обмежений гіперкубом [+1, -1] із центром на початку координат.

Структуру мережі В8В наведено на рис. 6.6.

Структура й принцип роботи мережі ВЗВ аналогічні структурі й принципу роботи мережі Гопфілда. Як і мережа Гопфілда, ця ме­режа є одношаровою. Основна відмінність у тому, що в мережі ВЗВ допускається наявність власних зворотних зв’язків нейронів, тоб­то знімається обмеження, і крім того, можлива відсутність зв’язків між окремими нейронами, тобто допускається.

Як активаційні у мережі використовуються функції вигляду (2.8), тому у-й вихідний сигнал у момент часу (k + 1) визначається у такий спосіб:

де — j-й вхідний сигнал у момент часуk

Тут — мала додатна величина, що називається параметром зво­ротного зв’язку.

Наявність додатного зворотного зв’язку призводить до того, що подані на входи мережі сигнали підсилюються доти, поки всі ней­рони не ввійдуть у насичення. Характерною рисою даної мережі є можливість роботи з аналоговими сигналами, які переводяться в бінарні форми.

У початковому стані мережа перебуває всередині одинично­го гіперкуба, обмеженого вхідними біполярними сигналами. Ди­намічні властивості мережі забезпечує рекурсивна зміна її стану в напрямку ребер (граней) гіперкуба. Ці грані визначають атрак- тори нелінійної динамічної системи, що відповідають збереженим образам. Поява на вході мережі будь-якого сигналу призводить до того, що мережа з часом виявиться в одному з таких стійких станів, що визначає даний вхідний образ (сигнал) і що перебуває в де­якій вершині гіперкуба.

Рис. 6.6. Структура мережі ВSВ

Для навчання мережі використовується або правило Гебба, або дельта-правило. Як початкові значення ваг вибирають малі ви­падкові величини. Метою навчання є знаходження матриці синаптичних ваг W, що забезпечує існуванняN стійких станів, та­ких, що

(6.22)

Для аналізу стійкості мережі В8В використовується той самий підхід, що й під час аналізу дискретної мережі Гопфілда. Локаль­ні мінімуми енергетичної функції досягаються на грані гіперкуба й визначають стійкі стани мережі, що відповідають різним нако­пиченим образам.

ВSВ-модель, будучи асоціативною пам’яттю, вирішує по суті завдання кластеризації заданого масиву даних, оскільки вершини гіперкуба в процесі обробки інформації діють як точкові атрактори з вираженими областями притягання, які ділять N-вимірний простір ознак на відповідну множину добре визначених областей. Якщо центри-прототипи кластерів відомі заздалегідь, їх можна поєднати з вершинами гіперкуба, після чого В8В-модель може працювати взагалі без навчання тільки за рахунок автозбуждения, що викликається додатним зворотним зв’язком. При цьому про­поновані мережі образи автоматично «стягуватимуться» до най­ближчих вершин гіперкуба — центрів кластерів.

Контрольні запитання

  1. Що являє собою модель Гопфілда? Яке значення має ця модель для подальшого розвитку ШНМ?

  2. До чого призведе порушення обмеження на вибір елементів матриці ваг?

  3. Поясніть суть алгоритму навчання мережі Гопфілда.

  4. У чому особливості синхронної мережі Гопфілда?

  5. Що являє собою неперервна мережа Гопфілда?

  6. Що являє собою мережа ВSВ?

  7. У чому відмінність мережі ВSВ від мережі Гопфілда?

  8. Як відбувається навчання мережі ВSВ?