Добавил:
Upload Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:
Ответы на зачет АСУ.docx
Скачиваний:
16
Добавлен:
21.12.2018
Размер:
1.06 Mб
Скачать

18. Охарактеризуйте две группы методов оптимизации: по модели и непосредственно на объекте.

  1. Методы оптимизации на основе мат. моделей

    1. метод исключения переменных

    2. метод неопределенных множителей Лагранжа

    3. метод линейного программирования (Контарович)

    4. метод динамического программирования(Понтрягин, Белман)

    5. принцип максимума Понтрягина

  2. Методы оптимизации непосредственно на объекте

    1. Метод Бокса-Вильсона (покоординатного поиска, хочу обрадовать Вас, друзья, что метод Бокса-Ульсона!! – это ничто иное, как метод крутого восхождения, который соединяет в себе прекрасные преимущества градиентного подхода и метода Гаусса-Зейделя, в котором мы движемся не на один шаг, а до достижения локального экстремума. Ну и конечно недостаток – нужно сделать много экспериментов)

    2. симплекс — метод

Симплекс-метод — алгоритм решения оптимизационной задачи линейного программирования путём перебора вершин выпуклого многогранника в многомерном пространстве. Метод был разработан американским математиком Джорджем Данцигом (George Dantzig) в 1947 году. Последовательность вычислений симплекс-методом можно разделить на две основные фазы:

  1. нахождение исходной вершины множества допустимых решений,

  2. последовательный переход от одной вершины к другой, ведущий к оптимизации значения целевой функции.

Оптимизация опытным путем имеет ряд существенных недостатков:

а) необходим реальный объект;

б) необходимо изменять технологический режим в значительных пределах, что не всегда возможно;

в) длительность испытаний и сложность обработки данных. Наличие математической модели (при условии, что она достаточно надежно описывает процесс) позволяет значительно проще решить задачу оптимизации аналитическим либо численным методами.

19. В чем отличие классических и неклассических оптимизационных задач?

20. В чем отличие конечномерных и вариационных оптимизационных задач? Общая классификация оптимизационных задач

Динамическая оптимизация – аргументом является время.

Конечные (конечномерные) – задача оптимизации, в которой оптимизируется функция.

I=f(x) – задача конечная

Вариационные – оптимизируется функционал.

J=f[x(Z)];

x=f1(Z)

Если присутствует ограничение – на условный экстремум (оптимизацию), иначе – на безусловный.

Классическая задача – ограничения () в форме равенств (Ньютон, Лагранж).

Неклассическая задача – ограничения в форме неравенств (Понтрягин, Беллман).

Изопериметрическая задача – ограничения в форме интегралов.

25. Расскажите последовательность действий при решении задачи методом «крутого восхождения»?

    1. Выбираем шаг движения по i - му фактору, например первому, причем этот шаг берется меньшим, чем интервал варьирования, то есть

;

    1. В соответствии с (4) определяем ;

    2. Определяем величину шагов по остальным факторам

i = ;

    1. Ставим эксперимент в точке с координатами

(i = );

Для перевода в кодированные координаты используется следующая формула:

;

Шаг в кодированных координатах определяется по формуле:

    1. Ставим эксперименты в точках с удвоением шага, утроением и т.д., то есть в соответствии с п. 4, но при , и т.д.;

    2. Эксперименты по п. 5 проводим до тех пор, пока yi не станет меньше yi – 1;

    3. Принимаем за экстремум значение y* = yi-1 и рекомендуем вести процесс в точке с координатами, соответствующими y*.

Найденная точка является точкой локального оптимума (экстремума) на поверхности отклика в ее сечении по направлению “крутого восхождения”.