Добавил:
Upload Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:
чис_мет_3.doc
Скачиваний:
29
Добавлен:
13.11.2019
Размер:
1.34 Mб
Скачать

3.3.2. Алгоритм наилучшей пробы

Этот алгоритм отличается от предыдущего тем, что на каждой итерации с помощью датчика случайных чисел формируется некоторое заданное количество s реализаций 1,…,sслучайного вектора  и вычисляются значения функции f(X) в тех пробных точках

Yj= Xk+ j, j=1,…,s, (3.22)

которые принадлежат допустимой области R. Если все эти точки оказываются вне области R, то пробы повторяются с уменьшенным значением . В качестве очередного (k+1)–го приближения выбирается пробная точка, в которой значение функции оказалось наименьшим. Таким образом, (k+1)-я точка Xk+1 минимизирующей последовательности определяется из соотношения

f(X k+1)=min {f(Yj) | YjR,1js}, (3.23)

т.е. рабочий шаг выполняется в направлении наилучшей пробы. Все остальные операции  те же, что и в предыдущем алгоритме.

Величины s1 и 0 являются параметрами данного алгоритма, выбором которых можно улучшить его сходимость.

3.3.3. Алгоритм статистичекого градиента

В этом алгоритме, как и в предыдущем, в начале каждой итерации выбирается s реализаций 1,…,S случайного вектора  и определяются пробные точки

Yj= Xk+ j,

где 0 – величина пробного шага. Далее, для всех YjR вычисляются значения функции f(X) и составляются разности f j= f(Xk)  f(Yj). Затем формируется новое направление

Pk = ,

где сумма берется только по тем j, 1js для которых YjR и по этому направлению делается шаг величиной .

Если точка X= Xk+Pk, полученная в результате этого шага, принадлежит допустимой области R, то полагают Xk+1=X и переходят к выполнению следующей итерации. Если же XR, то повторяют описанные построения с новым набором из s реализаций случайного вектора . Если все YjR, j=1,…,s то следует повторить пробы с уменьшенной величиной пробного шага .

Построенный таким образом вектор Pk называется статистическим градиентом. Такое название связано с тем, что в случае, когда REn, s=n, j=ej, где ej– единичные координатные векторы, описанный алгоритм превращается в разностный аналог градиентного метода и направление Pk при 0 становится направлением антиградиента f(X) функции в точке Xk.

Величины s1, 0, 0 являются параметрами алгоритма, существенно влияющими на качество итерационной процедуры.

3.3.4. Порядок выполнения работы

  1. Кратко описать рассмотренные варианты метода случайного поиска.

  2. Составить рабочие алгоритмы для каждого из них.

  3. Выполнить с использованием компьютерного комплекса расчеты индивидуальной задачи по каждому из трех алгоритмов при различных значениях их параметров.

  4. Провести сравнительный анализ полученных результатов. Дать графическую иллюстрацию решения задачи по каждому алгоритму.

  5. Сформулировать выводы о влиянии параметров алгоритмов на сходимость метода и о сравнительной эффекттивности изученных алгоритмов. Содержание проделанной работы отразить в отчете.

3.3.5. Задания для лабораторной работы

Решить задачи нелинейного программирования

1. f(X)=x12+x224x12x2+5min; 2.f(X)=x12+x2216x110x2+89min;

g1(X)= x12x2+1  0, g1(X)= 2x12+12x9x2+27  0,

g2(X)= 0,25x12x22+1  0, g2(X)= 5x12+16x2+80  0,

g3(X)= x1 0, g4(X)= x2  0. g3(X)= x1 0, g4(X)= x2 0.

3. f(X)=x12+x2214x14x2+53min; 4. f(X)=x12+9x2210x118x2+34min;

g1(X)= 2x1225x2+125  0, g1(X)=x1x2+5  0,

g2(X)= x12+2x1+4x2+3  0, g2(X)= 0,5x12+x2+4,50,

g3(X)= x1 0, g4(X)= x2 0. g3(X)= x1 0, g4(X)= x2 0.

5. f(X)=x12+4x2210x116x2+41min; 6. f(X)=x12+4x228x116x2+32min;

g1(X)= x12+4x1x2+1  0, g1(X)= 2x12+4x1+x21  0,

g2(X)= x12+4x1+3x23 0, g2(X)= x1x2+10,

g3(X)= x1 0, g4(X)= x2 0. g3(X)= x1 0, g4(X)= x2 0.

7. f(X)=x12+x224x12x2+5min; 8. f(X)=x12+9x2210x136x2+61min;

g1(X)= x1x2+20, g1(X)= x12+4 x14x2+12 0,

g2(X)= x12+x20, g2(X)= 3x12+7x2+270,

g3(X)= x1 0, g4(X)= x2 0. g3(X)= x1 0, g4(X)= x2 0.