- •Мета роботи
- •Порядок виконання роботи
- •Склад звіту
- •Варіанти завдань
- •Мета роботи
- •Порядок виконання роботи
- •Склад звіту
- •Варіанти завдань
- •Нейромережеве середовище Nntool
- •Мета роботи
- •Порядок виконання роботи
- •Склад звіту
- •Керуючі елементи nnTool
- •Приклад 1.
- •Створення мережі
- •Навчання
- •Поділ лінійно-невіддільних множин
- •Приклад 2.
- •Задача апроксимації
- •Приклад 3.
- •Розпізнавання образів
- •Приклад 4.
- •Імпорт-експорт даних
- •Завантаження з файлу
- •Експорт
- •Збереження у файлі
- •Варіанти завдань
- •Мета роботи
- •Порядок виконання роботи
- •Склад звіту
- •Іі. Застосування пакета Neural Net для рішення прикладних інженерних задач (апроксимація, прогнозування, класифікація) Нейромережевий інструментарій MatLab (Neural Net Toolbox)
- •Мережні шари. У nnt поняття “шар” визначен як шар нейронів, за винятком вхідного шару. Так, у nnt - нотації (термінології) одношарова мережа має вид:
- •Створення шару. Порожній мережний об'єкт, що називають "мережа" , буде створений у робочій області користувача , якщо набрати в командному рядку
- •Засоби MatLab, призначені для рішення завдань прогнозування. Прикладні програми
- •Варіанти завдань
Поділ лінійно-невіддільних множин
Розглянута задача синтезу логічного елемента «І» може трактуватися як задача розпізнавання лінійно віддільних множин. На практиці ж частіше зустрі-чаються задачі поділу лінійно невіддільних множин, коли застосування персептронов з функцієюактивації з твердим обмеженням не дасть рішення. У таких випадках варто використовувати інші функції активації.
Показовим прикладом лінійно невіддільної задачі є створення нейронної мережі, що виконує логічну функцію " виключаючеЧИ".
Приклад 2.
Нехай потрібно створити нейронну мережа, що виконує логічнуфункцію "виключаючеЧИ".
Розглянемо таблицю істинності цієї функції (табл. 2).
Таблиця 2. Таблиця істинності логічної функції " виключаєчеЧИ"
P1 |
P2 |
A |
0 |
0 |
0 |
0 |
1 |
1 |
1 |
0 |
1 |
1 |
1 |
0 |
Що ж мається на увазі під "лінійною невіддільністю" множин? Щоб відповісти на це питання, зобразимо множина вихідних значень у просторі входів (рис. 10),випливаючи наступному правилу: сполучення входів P1 і P2, при яких вихід A звертається в нуль, позначаються кружком, а ті, при яких A звертається в одиницю - хрестиком.
Наша мета - провести границю, що відокремлює множинунулів від множинихрестиків. З побудованої картини на рис. 10 видно, що неможливо провести пряму лінію, яка б відокремила нулі від одиниць. Саме в цьому змісті множина нулів лінійно невіддільно від множині одиниць, і персептрони, розглянуті раніше, у принципі, не можуть вирішити розглянуту задачу.
Якщо ж використовувати персептроны зі спеціальними нелінійними функ-ціями активації, наприклад, сигмоідними, то рішення задачі можливо.
Рис. 10. Стан логічного елемента " виключаюче ЧИ"
|
Рис. 11. Мережа для рішення задачі " виключаючеЧИ"
|
Виберемо персептрон з двома нейронами схованого шару, у яких функції активації сигмоїдні, і одним вихідним нейроном з лінійною функцією активації (рис. 11).Як функцію помилки вкажемо MSE (Mean Square Error - середній квадрат помилки). Нагадаємо, що функція помилки встановлюється у вікні "Створення мережі" після вибору типу мережі.
Ініціалізуємомережу, натиснувши кнопку Initialize Weights на вкладці Initialize, післячого навчимо, указавши як вхідні значення сформовану ранішезмінну data1, як мету- новий вектор, що відповідає бажаним виходам. У процесі навчання мережа не може забезпечити точного рішення, тобто звести помилку до нуля. Однак виходить наближення, яке можна спостерігати по кривій навчання нарис. 12.
Слід зазначити, що дана крива може змінювати свою форму від експерименту до експерименту, але, у випадку успішного навчання, характер функції буде монотонно убутним. У результаті навчання, помилка була мінімізована до дуже малого значення, що практично можна вважати рівним нулю.
Задача синтезу елемента " виключаючеЧИ" є також прикладом задачі класифікації. Вона відбиває загальний підхід до рішення подібного роду задач.
Рис. 12. Крива навчання в задачі " щовиключає ЧИ"
|
Рис. 13. Архітектура мережі для рішення задачі апроксимації
|