Добавил:
Upload Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:
621.doc
Скачиваний:
1
Добавлен:
17.09.2019
Размер:
94.72 Кб
Скачать

61. Показники Ляпунова. Максимальний горизонт прогнозності.

Однією з головних характеристик динамічних систем є набір показників Ляпунова- λ1,λ2, λ3.Кількість цих показників дорівнює розмірності системи. Якщо λі>0 це свідчить про роз бігання фазових траєкторій ( система не стійка).

Якщо λ і<0 – сходження фазових траєкторій – система стійка- стан рівноваги.

Якщо λі=0 система циклічна.

Найбільш важливим є перший показник λі, якщо λі більше 0 то це свідчить про хаотичну динамічну систему . Приклад система Лоренца. Для таких систем траєкторії швидко розбігаються.

через те прогнозування таких систем можна тільки на короткий час. Максимальний горизон прогнозування

Тмах=1/ λ1

Наприклад для виробництва зерна λ1= 0,05

Тмах=20 років.

62. Прогнозування методом найближчих сусідів.

У динамічних складних си-мах ефективним методом прогнозу є метод найближчих сусідів. Цей метод належить до групи методів штучного інтелекту. Спочатку будується фазовий простір сис-ми необхідної розмірності Р. Кожна точка такого простору має D координат.

Задача формулюється наступним чином: Дана група точок, які є близькими сусідами до останньої точки траєкторії, яка відображає біжучий стан систем. Маємо:

{x1,x2,x3….x28,x29,x30};

І розмірність D=4

Останній стан характер. (х27,х28,х29,х30)

Необхідно побудувати прогноз х*31

Отже, позначимо точки, які є найближчими сусідами Yn1=(x2,x3,x4,x5)

Yn2=(x9,x10,x11,x12)

Тоді найпростіший прогноз виглядатиме таким чином:

Х*31=1/m(Yn1+1+Yn2+1+…+Ynm+1) (5)

Більш точна модель використовує зважене осереднення окремих прогнозів

Yn+1=W1Ym+1+W2Yn2+1+…WmYnm+1/W1+W2+…+Wm ;

У ролі ваг використовуємо обернену відстаньвекторівсусідів до прогнозованого вектора Yn. Ефективність методу найближчих сусідів залежить від того наскільки вдало вибрані значення параметрів m – к-ть сусідів взятих до уваги, i D – розмірність простору.

Чим сладніша система тим більшу розмірність треба брати. Якщо взяти m занадто малу, то це приведе до розкиду ( розсіювання) прогнозних значень. Занадто велика кількість приводить до ускладнення обчислень.

Нехай наприклад найближчими сусідами виявилися Прогноз

1 ( х123) х4 2 ( х111213) х14

3 (х212223) х24

Y51=(x4+x14+x24);

63. Прогнозування методом штучних нейронних мереж.

Штучні нейронні мережі застосов уються у таких областях: як розпізнавання і класифікація, моделювання і класифікація складних процесів. Для моделювання нейронної мережі використовують негроподібний елемент такої структури:

Мал.

X1,x2,x3- входи,

W1,W2,W3, – ваги

∑ - суматор

○- нейрон

У- вихідні нейрони.

Головною перевагою в ШНМ є здатність до навчання. Для навчання треба мати навчаючі пари

Вхід Вихід

Х1,х2,х3 х4

Х11,х12,х13 х14

Х21,х22,х23 х24

Після закінчення навчання нейронна мережа використовуєтьсяя для прогнозування, бо вона вже навчена відтворювати вихідні сигнали за схожими зразками. Процедура прогнозування виглдає наступним чином :

Нехай розмірність системи D=3

W1W2W3- обирає випадковим чином ≈0,8

Вводимо в НМ перрший приклад

Вхід вихід похибки

Х1,х2,х3 р1 L1= (p1-x4)

X2,x3,x4 p2 L2= (p2-x5)

X47,x48,x49 p47 L47=(p47-x50)

E=∑L2i

Перед початком другого кроку необхідно таким чином змінити значення ваг, щоб сума стала меншою.

Маю фун-ю Е(W1,W2,W3) → використаємо для цього метод градаційного списку і отримаємо W1,W2,W3. Знову прогнозуєм весь часовий ряд через НМ, отримаємо таку часову і загальну похибку Е =∑L2.

Повторюємо кроки до того часу поки загальна похибка не стане меншою від заданої величини.

Це значить мережа навчена і її можна використовувати.

Якщо не вдається досягти потрібної точності то:1.Піднімають межу допустимої похибки 2.Удосконалюють нейронну мережу.

Соседние файлы в предмете [НЕСОРТИРОВАННОЕ]