Добавил:
Upload Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:
Моделирование биологических процессов и систем.....docx
Скачиваний:
8
Добавлен:
26.04.2019
Размер:
901.98 Кб
Скачать

3.7.3. Дифференциальные уравнения с запаздыванием

Системы с запаздывающей обратной связью являются генераторами колебаний, включая хаотические. . учитывают возможность существования нескольких причин запаздывания с разными характерными масштабами. Eравнение Маккея–Гласса, описывающее процесс выработки красных кровяных клеток в живых организмах: . Уравнение генератора с запаздывающей обр. связью, популярного в радиофизике: . Эти ДС являются бесконечномерными, т.к. при задании начальных условий необходимо указать распределение динамической переменной на временном отрезке [0, ]. Эти системы демонстрируют большое кол-во режимов (аттракторов в ФП, мультистабильность, хаос и прочие).

3 .7.4. Дифференциальные уравнения в частных производных – классический аппарат для моделирования колебательных систем. Наиболее известные модели – уравнения Максвелла, Шредингера, ур-е типа реакция-диффузия и т.д. – ур-е простой волны, где – распространения возмущения, - пространственная координата. – уравнение Кортевега – де Вриза (описывает волны солитонного типа – локализованные возмущения, распространяющиеся с постоянной скоростью без изменения формы).

3.8. Искусственные нейронные сети – вид мат. моделей, которые строятся по принципу организации и функционирования их биологических прототипов – сетей нервных клеток (нейронов) мозга. Используется идея о том, что нейроны можно моделировать довольно простыми автоматами (искусственными нейронами), а вся сложность мозга, гибкость его функционирования и другие важнейшие качества определяются связями между нейронами. Искусственный нейрон состоит из адаптивного сумматора и нелинейного преобразователя. На его входы подается вектор входных значений переменной {xn}. Каждому входу xi соответствует свой вес wi. Сумматор осуществляет взвешенное (адаптивное, подстраивающееся с помощью весов) суммирование входов , а нелинейный преобразователь формирует сигнал на выходе нейрона . Выбор функции активации F нейрона определяется: 1) спецификой задачи, 2) удобством реализации на ЭВМ, 3) алгоритмом обучения.

В полносвязных нейронных сетях каждый нейрон передает свой выходной сигнал остальным нейронам, в том числе и самому себе. Выходными сигналами сети могут быть все или некоторые выходные сигналы нейронов после нескольких тактов функционирования сети. В многослойных нейронных сетях нейроны объединяются в слои. Слой содержит совокупность нейронов с едиными входными сигналами. Число нейронов в слое может быть любым и не зависит от количества нейронов в других слоях. Состав: входной слой, скрытые слои, выходной слой. В зависимости от того, передают ли последующие слои свои сигналы на предыдущие слои, различают сети прямого распространения и сети с обратными связями. Свойства ИНС: 1. Обучаемость. Выбрав одну из архитектур НС и свойства нейронов, а также проведя алгоритм обучения, можно «обучить» сеть решению задачи, которая ей по силам. Нет гарантий, что это удастся сделать всегда, но во многих случаях обучение бывает успешным. 2. Способность к обобщению. После обучения сеть становится нечувствительной к малым изменениям входных сигналов (шуму) и дает правильный результат на выходе. 3. Способность к абстрагированию. Если предъявить сети несколько искаженных вариантов входного образа, то сеть сама может создать на выходе идеальный образ, с которым она никогда не встречалась. Решаемые задачи: распознавание образов (зрительных, слуховых), реализация ассоциативной памяти, кластеризация (разбиение изучаемой совокупности объектов на группы схожих между собой), аппроксимация функций, предсказание временных рядов, управление, принятие решений, диагностика. Обучение с учителем. При этом для построения решения используется обучающая выборка – пары известных входных-выходных значений. Обучение без учителя. Имеется набор входных векторов. Обучить сеть означает подобрать ее параметры так, чтобы она некоторым «оптимальным» образом классифицировала входные векторы.

4 .2. Базовые модели случайных процессов СП можно задать, определив явно конечномерные законы распределения вероятностей. Так вводятся базовые модели теории случайных процессов. 1) Нормальный (гауссовский) случайный процесс – для него все конечномерные законы распределения являются нормальными. n-мерный закон распределения имеет вид .., где m(t) – мат. ожидание, K – АКФ, T – транспонирование, |Vn| - определтель матрицы Vn.

2) Процесс с независимыми приращениями; 3) Белый шум; 4) Дискретный БШ – независимые одинаково распределенные СВ; 5) Марковский процесс; 6) Цепь Маркова; 7) Винеровский процесс.