Добавил:
Upload Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:
rsa_lab_6.docx
Скачиваний:
6
Добавлен:
21.09.2019
Размер:
559.27 Кб
Скачать
  1. Алгоритм наискорейшего спуска

Если при разложении целевой функции в ряд Тейлора ограничиться линейным приближением, то мы получим алгоритм наискорейшего спуска. Условию уменьшения значения целевой функции отвечает выбор направления

,

где - вектор градиента.

Повысить эффективность алгоритма наискорейшего спуска можно путем модификации выражения, определяющего направление. Хорошие результаты дает метод обучения с моментом. При этом подходе уточнение весов сети

производится с учетом модифицированной формулы определения значения

,

где - это коэффициент момента, принимающий значения в интервале .

  1. Алгоритм сопряженных градиентов

В этом методе направление поиска минимума целевой функции выбирается таким образом, чтобы оно было ортогональным и сопряженным ко всем предыдущим направлениям . Вектор, удовлетворяющий этим условиям, имеет вид

,

где обозначает вектор градиента, а коэффициент оценивается по формуле

.

Ввиду накопления погрешностей округления практическое применение метода сопряженных градиентов связано с постепенной утратой свойства ортогональности между векторами направлений минимизации. Поэтому после выполнения итераций (значение является функцией числа переменных) производится рестарт процедуры, на первом шаге которой направление минимизации из точки полученного решения выбирается по алгоритму наискорейшего спуска.

Метод сопряженных градиентов широко применяется при большом количестве переменных. Благодаря невысоким требованиям к памяти и относительно низкой вычислительной сложности этот метод позволяет успешно решать очень серьезные оптимизационные задачи.

  1. Подбор коэффициента обучения

В простейшем случае коэффициент обучения фиксируется на весь период оптимизации. Этот способ практически используется только совместно с методом наискорейшего спуска. Величина подбирается раздельно для каждого слоя сети по формуле

,

где обозначает количество входов -го нейрона в слое.

Более эффективный метод основан на адаптивном подборе коэффициента с учетом фактической динамики величины целевой функции. Стратегия изменения значения определяется путем сравнения суммарной погрешности на -й итерации с ее предыдущим значением, причем рассчитывается по формуле

.

Для ускорения процесса обучения следует стремиться к непрерывному увеличению при одновременном контроле прироста погрешности по сравнению с ее значением на предыдущем шаге. Незначительный рост погрешности считается допустимым.

Если погрешности на -й и -й итерациях обозначить соответственно и , а коэффициенты обучения на этих же итерациях - и , то значение следует рассчитывать по формуле

где - коэффициент допустимого прироста погрешности, - коэффициент уменьшения , - коэффициент увеличения . В программе MATLAB указанные коэффициенты имеют следующие значения: .

Наиболее эффективный, хотя и наиболее сложный, метод подбора коэффициентов обучения связан с направленной минимизацией целевой функции в выбранном направлении . Необходимо так подобрать значение , чтобы новое решение соответствовало минимуму целевой функции в данном направлении .

Поиск минимума основан на полиномиальной аппроксимации целевой функции. Выберем для аппроксимации многочлен второго порядка

,

где и - коэффициенты, определяемые в цикле оптимизации. Для расчета этих коэффициентов используем три произвольные точки , лежащие в направлении , т.е.

Соответствующие этим точкам значения целевой функции обозначим как

,

,

.

Коэффициенты и рассчитываются в соответствии с решением системы уравнений (). Для определения минимума многочлена его производная приравнивается к нулю, что позволяет получить . После подстановки выражений для в формулу для получаем

.

Соседние файлы в предмете [НЕСОРТИРОВАННОЕ]