- •Оглавление
- •Введение
- •1.Математические модели искусственных нейронных сетей [9]
- •1.1Общие сведения о структуре биологического нейрона
- •1.2 Математическая модель искусственного нейрона
- •1.3 Математическое описание нейронной сети
- •1.4 Стохастический нейрон
- •1.5 Сравнение характеристик машины фон Неймана и нейронной сети
- •2.Разработка структуры и функций нейроимитатора как элемента интеллектуальной информационной системы
- •2.1 Концепции применения нейросетевых компонентов в информационных системах
- •2.2 Предварительная обработка информации на этапе проектирования нейросетевых компонентов
- •2.3 Формирование задачника для нейросети
- •2.4 Особенности формирования нейронной сети
- •2.5 Интерпретация сигналов нейронной сети
- •2.6Управляющая программа (исполнитель)
- •2.7 Компонент учитель
- •2.8Настройка параметров нейросети.
- •2.9Оценка и коррекция нейросетевой модели
- •2.10 Конструктор нейронной сети
- •2.11 Контрастер нейросети.
- •2.12 Логически прозрачные сети, получение явных знаний
- •2.13 Решение дополнительных задач с помощью нейросетевых компонентов
- •2.14Разработка языка описания нейроимитатора для обмена данными
- •3.Разновидности нейронных сетей [31]
- •3.1Персептрон Розенблатта.
- •3.1.1Персептрон Розенблатта.
- •3.1.2Теорема об обучении персептрона.
- •3.1.3Линейная разделимость и персептронная представляемость
- •3.2Свойства процессов обучения в нейронных сетях.
- •3.2.1Задача обучения нейронной сети на примерах.
- •3.2.2Классификация и категоризация.
- •3.2.3Обучение нейронной сети с учителем, как задача многофакторной оптимизации.
- •3.3Многослойный персептрон.
- •3.3.1Необходимость иерархической организации нейросетевых архитектур.
- •3.3.2Многослойный персептрон.
- •3.3.3Обучение методом обратного распространения ошибок.
- •3.4Другие иерархические архитектуры.
- •3.4.1Звезды Гроссберга
- •3.4.2Принцип Winner Take All (wta) - Победитель Забирает Все - в модели Липпмана-Хемминга.
- •3.4.3Карта самоорганизации Кохонена.
- •3.4.4Нейронная сеть встречного распространения.
- •3.5Модель Хопфилда.
- •3.5.1Сети с обратными связями
- •3.5.2Нейродинамика в модели Хопфилда
- •3.5.3Правило обучения Хебба
- •3.5.4Ассоциативность памяти и задача распознавания образов
- •3.6Обобщения и применения модели Хопфилда.
- •3.6.1Модификации правила Хебба.
- •3.6.2Матрица Хебба с ортогонализацией образов.
- •3.6.3Отказ от симметрии синапсов.
- •3.6.4Алгоритмы разобучения (забывания).
- •3.6.5Двунаправленная ассоциативная память.
- •3.6.6Детерминированная и вероятностная нейродинамика.
- •3.6.7Применения сети Хопфилда к задачам комбинаторной оптимизации.
- •3.7Неокогнитрон Фукушимы.
- •3.7.1Когнитрон: самоорганизующаяся многослойная нейросеть.
- •3.7.2Неокогнитрон и инвариантное распознавание образов.
- •3.8Теория адаптивного резонанса.
- •3.8.1Дилемма стабильности-пластичности восприятия.
- •3.8.2Принцип адаптивного резонанса.
- •3.8.3Нейронная сеть aрt-1.
- •3.8.4Начальное состояние сети.
- •3.8.5Фаза сравнения.
- •3.8.6Фаза поиска.
- •3.8.7Обучение сети арт.
- •3.8.8Теоремы арт.
- •3.8.9Дальнейшее развитие арт: архитектуры арт-2 и арт-3.
- •3.8.10Сети арт-2 и арт-3.
- •3.9Черты современных архитектур.
- •3.9.1Черты современных архитектур.
- •3.9.2Сегодняшний день нейронауки.
- •3.9.3Программное и аппаратное обеспечение. Нейро-эвм.
- •4.Литература и учебно-методические материалы
1.2 Математическая модель искусственного нейрона
В 1943 г. У. Мак Каллок и У. Питтс (Warren McCullock, Walter Pitts) опубликовали статью [2], в которой предложили общую теорию обработки данных, основанную на использовании бинарных переключающих элементов, названных ими нейронам. Такие нейроны имеют состояния 0 (невозбужденное) и 1 (активное).
Авторы предложили схему функционирования технического нейрона в дискретном времени t=0,1,2, ... . Если принять во внимание рефрактерный интервал, которым характеризуется работа биологического нейрона, то можно сказать, что выбор дискретного времени соответствует особенностям работы живой нервной клетки.
На нейрон поступают сигналы как из внешней среды, так и от других нейронов. В математической модели эти сигналы образуют вектор-строку y(t) = (у1(t), y2(t), ... yM(t)). Каждый из сигналов yj(t), j=1,2, ..., M, воздействует на нейрон с усилением или ослаблением, определяемым постоянными коэффициентами wj,
(3.1)
(3.2)
где T – знак транспортирования вектора или матрицы.
Выходной сигнал нейрона n(t+1) на следующем такте дискретного времени рассматривается как результат нелинейного преобразования потенциала h(t):
(3.3)
Математическая модель нейрона (3.1) - (3.4) иллюстрируется схемой, представленной на рис. 1.4.
Функция Ө[h] называется активационной характеристикой, или передаточной функцией нейрона. Кроме рассмотренной выше пороговой функции, в нейронной сети могут быть использованы другие типы активационных характеристик. Обычно используются нелинейные функции, называемые сигмоидальными. Они обладают следующими свойствами:
бесконечная числовая ось отображается сигмоидальной функцией на конечный интервал,
сигмоидальная функция епрерывна и монотонно возрастает.
(3.5)
Если условия (3.5) не выполнены, то с помощью простейших линейных преобразований потенциала h они могут быть удовлетворены. На рис.1.5 представлен типовой пример сигмоидальной функции активации нейрона.
В практических приложениях можно встретить различные нелинейные характеристики Ө[h]:
Рис. 1.4. Математическая модель технического нейрона
(3.8)
(3.9)
Активационная характеристика (3.8) носит название логистической..
Функция активации нейрона может быть невозрастающей в отличие от предыдущих примеров. В частности, может быть применена гауссова функция
где χ и σ - параметры активационной характеристики (рис.6).
Как следует из математической модели (3.2) - (3.4) технического нейрона, она содержит ряд параметров. К числу этих параметров относятся синаптические коэффициенты w=(w1,w2, wM) и смещение нейрона (-b). Выбор значений параметров w и (-b) зависит от конкретных условий решаемой практической задачи. Их настройка проводится в специальном режиме функционирования нейронной сети - режиме обучения. Это дало основание называть нейрокомпьютеры машинами, которые обучаются.
Рис. 1.7. Схема нейронной сети, содержащей N нейронов
и имеющей M входов и L выходов