Добавил:
Upload Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:

MonografiaOxana_tanya

.pdf
Скачиваний:
65
Добавлен:
08.03.2016
Размер:
2.41 Mб
Скачать

 

 

Таблиця 5.4

Комплекс заходів, що спрямовані на усунення деяких видів

 

фінансових погроз

 

 

 

Клас

 

 

фінансових

Вид загрози

Можливі фінансові заходи

погроз

 

 

 

 

 

 

 

стимулювання передоплати

 

наявність і зростання

зниження термінів надання комерційного

 

простроченої дебіторської

кредиту

 

збільшення періоду кредиту, що надається

 

заборгованості

 

постачальниками

 

зростання рівня

 

прискорення інкасації дебіторської

Низький

незавершеного

заборгованості

рівень

виробництва

зниження розміру страхових товарно-

ліквідності

наявність прострочених

матеріальних запасів

 

 

 

банківських кредитів

реалізація високоліквідної частини

 

наявність простроченої

довгострокових фінансових вкладень

 

кредиторської

проведення операцій фінансового лізингу

 

заборгованості

оренда устаткування, що раніше

 

 

намічається до придбання

 

 

пролонгація кредитів

 

 

 

 

 

податкова реструктуризація

 

 

оптимізація цінової політики

 

 

зниження рівня постійних витрат

 

дефіцит інвестиційних

зниження рівня змінних витрат

Низький

реструктуризація засновницьких відносин

ресурсів

рівень

скорочення об'ємів інвестиційної

наявність прострочених

прибутковості

діяльності

банківських кредитів

 

зміна дивідендної політики

 

 

 

 

скорочення програм участі найнятих

 

 

робітників у прибутку

 

 

скорочення об'єму соціальних,

 

 

екологічних й інших зовнішніх програм

 

 

 

 

 

прискорення інкасації дебіторської

 

 

заборгованості

 

 

зниження термінів надання товарного

 

недостатність оборотних

кредиту

 

коштів

зниження ціни складноліквідних запасів

Низька

залучення

товарно-матеріальних цінностей до рівня

«непривабливих»

ціни попиту із забезпеченням подальшій їх

динамічність

кредитних ресурсів

реалізації

 

 

зниження автономності

зниження страхових запасів товарно-

 

підприємства

матеріальних цінностей

 

 

реструктуризація портфеля

 

 

короткострокових фінансових кредитів з

 

 

перекладом частини з них у довгострокові

 

 

 

151

6 ВИКОРИСТАННЯ НЕЙРОМЕРЕЖЕВИХ ТЕХНОЛОГІЙ

УФІНАНСОВОМУ АНАЛІЗІ

6.1Нейромережева класифікація типів криз, що впливають на рівень фінансового стану підприємства

Раніше розглянуті моделі дозволяють надати кількісну та якісну оцінку фінансовому стану. Але для формування повної картини стану підприємства не достатньо його тільки оцінити. Є необхідність у передбаченні майбутньої фінансової ситуації.

Реалізація фінансового плану також багато в чому залежить від класу, виду й інтенсивності дії перешкод, які можуть змінюватися. Це вимагає застосування при аналізі та оцінці руху фінансових потоків моделей, які гнучко адаптуються до особливостей нових даних. Такі моделі можна отримати у рамках нейромережевого підходу.

Нейронна мережа – це сукупність нейронів, що певним чином пов'язані між собою і функціонують за заданими правилами [47, 66, 83].

Структура штучного нейрона зображена на рисунку 6.1 і включає такі елементи: входи, синапси, суматор, нелінійний перетворювач, вихід.

Входи на схемі позначені символами x1, x2, …, xn; вагові коефіцієнти, які визначають дію синапсів представлені відповідно набором (w1, w2, …, wn);

символом S позначений суматор; b – величина зрушення, яка визначає поріг або рівень збудження нейрона; s – результат суми зважених вхідних сигналів і величини зрушення, яка визначає стан нейрона; f(s) – нелінійний перетворювач, який реалізує нелінійну функцію від аргументу s; у – значення початкового сигналу, яке залежить від дії нелінійного перетворювача.

Математична модель нейрона, що відповідає вказаній схемі (рис.

6.1), має вигляд:

152

swi xi b,

i 1n

y f (s) .

Модель нейрона реалізує скалярну функцію векторного аргументу. У

загальному випадку вхідний сигнал, вагові коефіцієнти і значення зрушення можуть набувати різних числових значень. Вихід (y)

визначається типом функції активації, які можуть бути граничними,

сигнатурними, сигмоїдальними, напівлінійними, лінійними, радіальними базисними, трикутними та інше [47, 66, 83].

w1 w2 … wn

x1

 

 

 

s

 

x2

 

y

f(s)

xn

 

 

b

Рис. 6.1. Структурна схема штучного нейрона

Математична модель нейрона повністю описується ваговими коефіцієнтами wi і передавальною функцією f(s). Для кожного вектора вхідних сигналів ставиться відповідне числове значення у. Сукупність нейронів утворює нейронну мережу, а кількість нейронів і характер зв'язків між ними обумовлюють топологію мережі. Нейронні мережі розрізняються за характером зв'язків між нейронами, особливостями моделі функціонування нейрона, особливостям навчання мережі [66, 83].

Для вирішення завдань прогнозування і класифікації використовуються багаторівневі нейронні мережі. Приклад організації багаторівневої нейронної мережі наведений на рисунку 6.2. Ця нейронна

153

мережа містить такі шари: вхідний, проміжний (латентний), вихідний. Така нейронна мережа відноситься до класу персептронів.

Вхідний шар

Латентний шар

Вихідний шар

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

ю

 

 

 

 

ю ...

ю ...

 

 

 

 

 

 

 

 

 

 

Рис. 6.2. Трирівнева нейронна мережа

Відповідна математична модель такого персептрона наведена на рисунку 6. 3, де визначені вхідні сигнали першого рівня, суматори,

величини зрушень, змінні стани нейронів, функції активації латентного і вихідного шару, вихідні сигнали.

x1

 

s11

y11

 

 

f1

 

 

b11

 

 

 

s21

y21

x2

 

f1

 

 

b21

 

 

 

sn1

yn1

xn

 

f1

 

 

 

 

 

bn1

 

 

s12

y12

 

f2

 

b12

 

 

s22

y22

 

f2

 

b22

 

 

sn2

yn2

 

f2

 

 

bn2

 

Рис. 6. 3 Структура математичної моделі трирівневого персептрона

Окрім багаторівневих нейронних мереж зазначають такі, як лінійні мережі, мережі, в яких застосовуються радіальні базисні функції, мережі Кохонена, імовірнісні нейронні мережі, узагальнені регресійні нейронні мережі, мережі Хопфілда, мережі Хеммінга та інші [47, 83]. Вони

154

відрізняються архітектурою, концепцією і принципами функціонування,

але основні компоненти нейронних мереж однакові.

Розглянемо основні принципи роботи цих мереж.

Лінійна мережа є найпростішим видом нейромережевих моделей.

Лінійна мережа представлена тільки вхідними і вихідним нейронами, не містить проміжних шарів. При побудові лінійної мережі використовується гіперплощина, яка в завданнях регресії повинна проходити через задані точки, а в завданнях класифікації ця гіперплощина є лінійною дискримінантною функцією.

Мережа радіальних базисних функцій (RBF) містить прихований шар нейронів з радіально симетричною активаційною функцією, кожний з яких призначений для зберігання окремого еталонного вектора (у вигляді вектора ваг). Для побудови цієї мережі необхідне виконання наступних умов: наявність еталонів, поданих у вигляді вагових векторів нейронів прихованого шару; наявність способу вимірювання відстані вхідного вектора від еталону; наявність спеціальної функції активації, що задає вибраний спосіб вимірювання відстані.

Мережі Кохонена відносяться до мереж стрічного розповсюдження,

нейронів, що складаються з вхідного шару і шарів нейронів Кохонена і Гросберга. Часто для вирішення складних завдань розпізнавання і кластеризації ця мережа за своїми характеристиками істотно перевершує мережі з одним прихованим рівнем. У мережах Кохонена відбувається некероване навчання (без вчителя): мережа вчиться розпізнавати кластери серед нерозмічених повчальних даних, що містять тільки вхідні значення.

Крім того, мережа Кохонена розташовує споріднені кластери поблизу один від одного у вихідному шарі, формуючи топологічну карту.

Імовірнісні нейронні мережі (PNN) – вид нейронних мереж для завдань класифікації, де щільність вірогідності приналежності до класів оцінюється за допомогою ядерної апроксимації. У методі ядерних оцінок в точці, відповідній кожному спостереженню, розміщується деяка проста

155

функція, потім всі вони складаються, і в результаті виходить оцінка для загальної щільності вірогідності. Як правило, як ядерні функції беруться гаусові функції. Якщо повчальних прикладів достатня кількість, то такий метод дає добре наближення до дійсної щільності вірогідності.

Узагальнені регресійні мережі (GRNN) використовуються для вирішення завдань регресії, і в них також використовується ядерна апроксимація.

Нейронні мережі Хопфілда і Хеммінга відносяться до класу оптимізуючих нейронних мереж. Нейронна мережа Хопфілда працює за принципом асоціативної пам'яті та дозволяє визначити номер еталону,

найближчий до пред'явленого вхідного вектора.

Вибір структури штучної нейронної мережі здійснюється відповідно до особливостей і складності завдань. Порівняльний аналіз переваг і недоліків окремих нейроних мереж наведений у таблиці 6.1.

Таблиця 6.1

Порівняльний аналіз переваг та недоліків окремих нейронних мереж

Тип мережі

Переваги

Недоліки

Багаторівневий

Невеликі, швидко

Повільно навчаються

персептрон (MLP)

працюють

 

 

 

 

Радіальні базисні

Швидко вчаться

Невеликі за розмірами, не можуть

функції (RBF)

вирішувати задачі екстраполяції

 

Лінійні

Прості, швидко вчаться

Не можуть вирішувати нелінійні

задачі

 

 

 

Швидко вчаться, мають

Дуже великі, повільно працюють, не

Байєсові (вірогіднісні)

можуть вирішувати задачі

хорошу теоретичну базу

 

екстраполяції

 

 

Процес побудови нейронної мережі включає такі етапи:

1Вибір типу мережі для вирішення поставленого завдання.

2Навчання нейронної мережі, тобто визначення чисельних значень ваг (численных значений весов) кожного з нейронів на підставі експертної або ретроспективної інформації.

3Перевірка нейронної мережі, яка пройшла навчання, на даних контрольного прикладу.

156

4

Використання мережі, яка успішно пройшла навчання і

тестування, для вирішення завдання.

Процес навчання нейронної мережі відображено на рисунку 6.4.

База даних

Вибір прикладу

Мережа

навчена

Застосування

нейроної мережі Мала

помилка

Розрахунок

Розрахунок помилки

помилки

Велика

помилка

Настроювання ваг нейронної мережі

Рис. 6.4. Процес навчання нейроної мережі

Оскільки для проектованої нейронної мережі невідомі значення параметрів, тобто значення вагових коефіцієнтів і величини зрушення, то слід їх визначити так, щоб прогнозні значення вихідних показників не істотно відрізнялися від дійсних. У нейронних мережах застосовуються спеціальні алгоритми навчання, які дозволяють настроїти параметри моделі, перш за все – ваги, відповідним чином. Існує декілька способів навчання нейронних мереж: з вчителем; без вчителя; змішана, які засновані на деяких правилах навчання, таких, як корекція за величиною помилки, правило Больцмана, правило Хебба, метод змагання. Для навчання різних нейронних мереж застосовується ряд алгоритмів, таких, як

157

метод зворотного розповсюдження погрішності, лінійний дискримінантний аналіз, алгоритм Больцмана, векторне квантування та інші [47]. У таблиці 6.2 подані найпоширеніші алгоритми навчання мережі.

 

 

 

 

 

 

Таблиця 6.2

 

Відомі алгоритми навчання нейронних мереж

 

 

 

 

 

 

 

 

 

Парадигма

Навчаюче

Архітектура

 

Алгоритм навчання

Задачі

 

правило

нейронної мережі

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

Класифікація

 

 

 

Одношаровий

та

Алгоритми

навчання

образів

 

 

Корекція

персептрона

Апроксимація

З вчителем

багатошаровий

 

помилки

 

Зворотне

поширення;

функцій

 

 

персептрон

 

 

 

 

 

Adaline и Madeline

Передбачення

 

 

 

 

 

 

 

 

 

 

керування

 

 

 

 

 

 

 

 

 

 

Больцман

Рекурентна

 

Алгоритм

навчання

Класифікація

 

 

 

Больцмана

 

образів

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

Багатошарова

 

Лінійній

 

Аналіз

даних;

 

Хебб

прямого

 

 

класифікація

 

 

 

дискримінантний аналіз

 

 

 

поширення

 

образів

 

 

 

 

 

 

 

Категоризація

 

Змагання

Змагання

 

Векторне квантування

всередині

класу;

 

 

 

 

 

 

стиснення даних

 

 

Мережа ART

 

ART Map

 

Класифікація

 

 

 

 

 

образів

 

 

 

 

 

 

 

 

 

Корекція

Багатошарова

 

 

 

Категоризація

Без вчителя

прямого

 

Проекція Самона

всередині

класу;

помилки

 

 

поширення

 

 

 

аналіз даних

 

 

 

 

 

 

 

 

 

Прямого

 

Метод

головних

Аналіз

даних:

 

Хебб

поширення

або

 

компонентів

стиснення даних

 

 

змагання

 

 

 

 

 

 

 

 

 

 

Мережа Хопфілда

Навчання

асоціативної

Асоціативна

 

 

 

пам'яті

 

пам'ять

 

 

 

 

 

 

 

 

Змагання

Змагання

 

Векторне квантування

Категоризація:

 

 

стиснення даних

 

 

 

 

 

 

 

 

SOM Кохонена

 

SOM Кохонена

Категоризація:

 

 

 

аналіз даних

 

 

 

 

 

 

 

 

 

 

Сети ART

 

ART1, ART2

Категоризація

 

 

 

 

 

 

 

 

 

 

 

 

 

 

Класифікація

 

 

Корекція

 

 

 

 

образів

 

 

 

 

Алгоритм

навчання

Апроксимація

Змішана

помилки та

Мережа RBFN

 

 

RBFN

 

функцій

 

 

змагання

 

 

 

 

 

 

 

 

 

Передбачення

 

 

 

 

 

 

 

 

 

 

 

 

керування

 

158

Найчастіше використовується для навчання багаторівневого

персептрона метод зворотного розповсюдження помилки, який діє на основі принципу навчання з вчителем і використовує алгоритм градієнтного спуску для мінімізації квадратичної помилки (рис. 6.5). При проведенні навчання нейронної мережі дуже важливо звертати увагу на загрозу перенавчання, яка виявляється у тому, що величина контрольної помилки починає зростати. Тобто, на безлічі даних, за допомогою яких йде навчання нейронної мережі, величина погрішності допустима і достатньо низька, а на нових, контрольних даних, модель працює погано.

Оскільки при моделюванні складних процесів можливе використання різних типів нейронних мереж, то після проведення їх навчання і тестування, слід визначити якнайкращу серед моделей.

Найбільш інформативною і важливою статистикою для вибору моделі при рішенні задач прогнозування на основі нейронних мереж є величина (S.D. ratio), яка визначається як відношення стандартного відхилення помилки прогнозу до стандартного відхилення вихідних даних. Чим ближче до 0

значення цієї величини, тим краще якість моделі, побудованої на основі нейронної мережі. Величина, яка дорівнює різниці між одиницею і розміром S.D. ratio, – частка поясненої дисперсії вихідних показників.

При рішенні задач класифікації використовуються статистики, що визначають, скільки спостережень кожного класу було класифіковано правильно, скільки неправильно, скільки взагалі не класифіковано.

Використовується також функція Perfomance, що визначає частку правильно класифікованих випадків.

Таким чином, враховуючи наведені вище правила щодо вибору типа і архітектури нейронної мережі, алгоритмів її навчання, можна вибрати найбільш якісні для прогнозування і класифікації моделі, що будуть використані для оцінки фінансового стану підприємства і визначення типу кризи під впливом різних перешкод.

159

Задати синапатичну матрицю випадкових чисел

Відправити на вхід прихованого шару набір навчаючих даних( X C )

Розрахувати вхід схованого шару:

Y C F ( X C )

де X C – зважений вхід схованого шару; F – сигмоїдальна функція

Розрахувати помилки для вхідного та схованого шарів

Помилки допустимі

Рис. 6.5. Алгоритм навчання нейроної мережі зворотного поширення

Слід також відмітити, що процедура побудови нейронної мережі досить складна і вимагає значних розрахунків, проведення чисельних обчислювальних експериментів. Тому побудова і аналіз моделей нейронних мереж здійснюється за допомогою сучасних пакетів програм,

що реалізовують відповідні технології. Це такі програмні продукти, як

NeuroSolutions (NeuroDimension Inc.), NeuroShell (Ward Systems Groupe), Statistica Neural Networks (StatSoft Inc.) та інші [18, 47, 83].

За допомогою пакету Statistica Neural Networks (StatSoft Inc.) [18, 83],

який об'єднує у собі зручний інтерфейс і широкі можливості вибору різних типів нейронних мереж, побудована модель оцінки і аналізу реалізації

160

Соседние файлы в предмете [НЕСОРТИРОВАННОЕ]