- •Оглавление
- •1. Асоціативне неконтрольоване навчання
- •3. Зміст звіту по практичній роботі
- •Варіанти завдань
- •Аудиторна робота
- •Результат роботи:
- •2. Конкурентні нейронні мережі («Шар і мапа Кохонена»)
- •3. Зміст звіту по практичній роботі
- •Варіанти завдань: кластеризація даних
- •Аудиторна робота
- •1 % Self Organizing Feature Maps sofm (Kohonen networks)
- •3. Конкурентні нейронні мережі («Бінарний класифікатор сигналів екг на основі lvq»)
- •3. Зміст звіту по практичній роботі
- •Варіанти завдань
- •Аудиторна робота
- •1. %Learning Vector Quantization
- •Література
- •4. Нейронні мережі Гросберга
- •Аудиторна робота
- •1. Leaky integrator
- •2. Shunting network demonstration
- •3. Перший та другий шари мережі Grossberg
- •4. Налаштування ваги
- •Art-1 мережі розпізнавання зображень ()
- •3. Зміст звіту по практичній роботі
- •Варіанти завдань: класифікація зображень
- •Аудиторна робота
- •Листинг программы (matlab)
- •Результаты работы программы
- •Мережa Хопфiлда як асоціативна пам'ять ()
- •Варіанти завдань
- •Аудиторна робота
- •7.Рбф-мережа (робота № 5)
- •Варіанти завдань
- •Подбор параметров радиальной функции для каждого радиального нейрона (центр delta и параметр ширины b)
- •Подбор параметров радиальной функции для каждого радиального нейрона (центр с и параметр ширины b)
- •Ортогонализация по методу наименьших квадратов:
- •Работа первого и второго слоев:
- •Адаптация нелинейных параметров радиальных функций всех нейронов первого слоя сети:
- •8.Мережа з використанням га
2. Конкурентні нейронні мережі («Шар і мапа Кохонена»)
Мета роботи: ознайомитися з принципами функціонування та навчання конкурентних мереж. Об’єкт дослідження: шар і мапа Кохонена
Теми для опрацювання
1. Нейронні мережі із самоорганізацією (шар і мапа Кохонена).
Постановка задачі (згідно з індивідуальним завданням):
1. Кластеризація векторів на основі алгоритму самоорганізації мап.
Алгоритм самоорганізації мап можна описати таким чином.
Постановка задачі: кластерний аналіз (або класифікація без учителя). Нехай задано навчальну вибірку у вигляді даних входу: A = {p1, ..., pQ}, де – вектор вхідних даних з елементами pij . На основі початкових даних визначити таке розбиття множини A на задану кількість кластерів S (S N, S > 1): Ak, k = 1, ..., S, яке забезпечує екстремум деякої цільової функції серед усіх розбиттів. Як цільову функцію будемо розглядати функцію вигляду де kw = [kw1, ..., kwR]T є вектором у просторі R, функція – функція, реалізована у вигляді НМ, яка описує перетворення вхідних даних у вихід. Розглянемо алгоритм.
Крок 1. Ініціалізація. Як початкові значення векторів ваги обираємо випадкові значення (при цьому амплітуду значень рекомендується брати малою) або значення з доступної множини вхідних векторів . Зазвичай, ініціалазіція відбувається за допомогою присвоєння ваговим векторам малих значень, сформованих генератором випадкових чисел.
Крок 2. Вибір вхідного вектора. Вхідний вектор р, який має розмірність R, обираємо із вхідного простору з визначеною ймовірністю.
Крок 3. Визначення нейрона-переможця. На кроці t визначаємо значення i(р) нейрона-переможця, використовуючи критерій мінімуму відстані Евкліда (максимального значення скалярного добутку ,):
Крок 4. Корекція. Значення векторів ваги всіх нейронів модифікуємо за формулою де , t = 0, 1, …, де 2 – деяка часова константа. Повертаємося до кроку 2 та продовжуємо обчислення доти, поки в мапі ознак не перестануть спостерігатися сутєві зміни (тобто ).
Нехай dji – латеральна відстань між нейроном-переможцем (i) та вторинно активованими нейронами (j), hji – функцієя околу - топологічний окіл із центром в i-му нейроні-переможці, який складається із множини вторинно активованих нейронів (j), що взаємодіють із ним. Тоді можна припустити, що топологічний окіл hji є унімодальною функцією від латеральної відстані dji і задовольняє такі умови:
1) hji є симетричною відносно точки максимуму, яка визначається умовою dji = 0 (максимум функції досягається в нейроні-переможці);
2) амплітуда топологічного околу hji монотонно зменшується зі збільшенням латеральної відстані dji, прямуючи до нуля за dji (необхідна умова збіжності).
Типовою функцією, яка задовольняє ці вимоги, є функція Гаусса:
(11.4)
де параметр – ефективна ширина топологічного околу (рис. 11.12), що визначає рівень, до якого нейрони із топологічного околу нейрона-переможця беруть участь у процесі навчання. У дискретному вихідному просторі латеральну відстань dji можна визначити таким чином: для одновимірної гратки dji = |j–i|; для двовимірної гратки , де вектор rj визначає положення активованого j-го нейрона, а ri – i-го нейрона-переможця.
Рис. 2.1. Функція Гаусса топологічного околу |
Важлива властивість самоорганізованого алгоритму навчання полягає у зменшенні розміру топологічного околу з часом і виконується за рахунок поступового зменшення ефективної ширини функції топологічного околу hji. |
Останню найчастіше обчислюють за формулою , t = 1, 2, …, де 0 – початкове значення ; 1 – деяка часова константа. Залежність топологічного околу від часу визначають формулою
, t = 0, 1, … . (11.5)
Зі збільшенням кількості ітерацій t ширина (t) експоненціально зменшується, а тому відповідно зменшується й топологічний окіл.
Порядок виконання роботи
1. Вивчити теоретичний матеріал.
2. Послідовно виконати такі завдання до практичної роботи:
А. Спроектувати класифікатор у вигляді мапи Кохоннена. Перевірити мережу на здатність розв’язувати задачу класифікації векторів.