- •1 Теорема Кронекера-Капелли
- •2 Метод Крамера решения слу
- •4. Понятие градиента функции. Теорема о градиенте. Понятия матриц Гессе и Якоби.
- •3 Метод Гаусса решения слу
- •5 Т.О необх-х усл-х экстремума.
- •7. Понятие полож (отриц) опред-ти матрицы. Критерий Сильвестра
- •8. Классич метод поиска экстремума ф-и без ограничений
- •9 Метод множ-й Лагранжа
- •10 Условия Куна-Таккера
- •11 Формы представления злп
- •12 Графический метод решения злп
- •13 Двойств злп. Двойств лемма.
- •17 Классификация чм.
- •16. Понятие алгоритма в численных методах математического программирования. Понятия к-го приближения, итерации, сходимости, критерия останова
- •18 Метод наискорейшего спуска (подъема).
- •19. Метод сопряженных градиентов.
- •23. Базовые условия для задачи Дин.П.
- •20. Метод Ньютона.
- •21. Метод Ньютона-Рафсона.
- •22.Постановка задачи Динамического программирования (Дин.П.)
- •25. Метод прогонки.
- •28. Критерии пути
- •27.Осн понятия теории графов и сетей
- •81. Коалиционные игры - матем модели конфликтов с возм-тью создания коалиций.
- •82.Дележи и доминируемость по коалициям.
- •62. Защитные и уравнов.Смешан.Стратегии в ант.Играх. Цена игры в смеш.Стратегиях.
- •29. Задача о замене как задача поиска кратч пути
- •30. Задача поиска мин остовного дерева
- •32. Задача о потоке наименьшей ст-ти.
- •31. Задача о min потоке
- •33. Задача о кратчайшем и критическом путях.
- •34. Суть задачи и осн понятия календарнгое планирования.
- •35. Правила построения сетевой модели проекта.
- •36. Построение сетевого графика проекта
- •37. Временные параметры сетевых графиков. Критич путь.
- •38. Задачи оптимизации проектов. Методы их решения.
- •40. Однопродуктовая статическая модель без дефицита
- •45. Позиционная форма бескоалиционной игры
- •39. Постановка задачи упр-ия запасами и осн. Понятия теории упр-ия запасами.
- •41. Однопродуктовая статическая модель с дефицитом.
- •42. Однопродуктовая статическая модель без дефицита с учетом дисконта.
- •43. Основные понятия теории игр
- •44. Нормальная форма бескоалиционной игры
- •46. Понятие решения игры. Осн. Принципы, опред. Реш. Игры.
- •47. Доминирующие и доминируемые стратегии. Равновесие в доминирующих стратегиях.
- •48. Равновесие по Нэшу.
- •50. Сильное равновесие по Нэшу.
- •49. Теорема Нэша. Решение задачи о конкуренции с помощью теоремы Нэша (на примере)
- •51. Оптимальность по Парето
- •53. Равновесие в защитных (максиминных) стратегиях
- •52. Равновесие Штакельберга
- •54. Смешанные стратегии
- •56. Равновесие в защитных (максиминных) стратегиях.
- •63. Теорема Неймана:
- •57. Задача поиска равн-ия в защитн.См.Страт.Как злп.
- •58.Геометрическая интерпретация игры. Платежное мн-во.
- •59.Антагонистические игры.
- •60. Верхняя, нижняя и чистая цены игры.
- •61. Решение ант.Игры в чистых стратегиях
- •85. Вектор Шепли.
- •64. Решение ант.Игры в смеш. Стратегиях методом лин прогр-я
- •65. Графический метод решения ант.Игры размера mx2 (2xn)
- •67. Критерий Лапласа.
- •68. Критерий ожидаемого значения (Баейса).
- •66.Содержание и формы представления игры против природы
- •69. Критерии гарантированного рез-та: min max и max min
- •70. Критерий Сэвиджа.
- •71. Критерий Гурвица.
- •72. Критерий Неймана-Пирсона.
- •73. Рандомизированные решения.
- •75.Доминир-ть реш-й в играх против природы. Мн-во допустимых реш-й.
- •74. Геометрическая интерпретация игры против природы. Платежное мн-во.
- •76. Поиск оптим ранд.Решений по критерию ожидаемого значения (Байеса).
- •77.Поиск оптим рандомизир-х решений по критерию гарантированного рез-та (максимину, минимаксу)
- •78. Кооперативное поведение в конфликтных ситуациях.
- •79. Доминируемость совместимых смешанных стратегий.
- •80. Задача о переговорах. Переговорное мн-во.
19. Метод сопряженных градиентов.
Метод является методом первого уровня. Предст собой модификацию метода наискорейшего спуска (подъема) и автоматически на каждой итерации учитывает особ-ти целевой ф-и, ускоряя сходимость. Описание метода:
Шаг 0.Выб-ся точка начального приближения х→(0), точность решения ε>0, вычисл-ся направление поиска S→(0)=▼f(х→(0)).
Шаг к: а)находится min (max) ф-и f(х→) на прямой, проведенной из точки х→(к-1) по напр-ю S→(к-1).Найденный min (max) опред-ет очередную точку к-го приближения х→(к), после чего опред-ся напр-е поиска S→(к) по ф-ле:
S→(к)=(▼f(х→(к)) + S→(к-1)) (|▼Тf(х→(к))▼f(х→(к))| / | ▼Тf(х→(к-1))▼f(х→(к-1)) |).
Алгоритм завершает работу как только вып-ся | х→(к)-х→(к-1)|< ε
В кач-ве решения берется посл. приближение х→(к).
23. Базовые условия для задачи Дин.П.
1. «Отсутствие последействия»-сост-е с-мы Sk в конце к-ого шага завис только от её сост-я в начале шага и управляющего воздействия на этом шаге:
Sk=φk(Sk-1,Xk),k=1,¯n, (1)
Ур-ние (1) наз. ур-ем состояний и д.б. задано или получено перед реш-ем задачи.
2. «Аддитивность целевой ф-ии». Эфф-ть проведения всей операции в целом = сумме эфф-тей ее элементарных операций:
W=F(S0,X)=∑nk=1wk=∑nk=1fk(Sk-1,xk), (2)
где wk=fk(Sk-1,xk) – поазатель эфф-ти упр-я xk на к-ом шаге.
20. Метод Ньютона.
Явл-ся.методом 2-го уровня. В основе метода лежит формула Тейлора и тот факт, что ▼f (х→) в точке экстремума =0
Т.к.экстремум находится в стац.точке, то для его опред-я необх найти эту точку, решив с-му ур-ний,опред соотнош-м: ▼f (х→)=0. это можно сделать методом Ньютона –Рафсона. Описание метода:
Шаг 0. Выбир-ся начальное приближение х→(0), точность решения ε>0.
Шаг к: а) вычисляется очередное приближение х→(к) по формуле:
х→(к)= х→(к-1)-Н-1(х→(к-1)) ▼f(х→(к-1))
где Н – матрица Гессе f(х) в точке х→(к-1).
Б)проверяется критерий останова: |х→(к)-х→(к-1)|<ε. Если кр.вып-ся, то алгоритм заканчивает свою работу и в кач-ве решения берется последнее приближение х→(к)
21. Метод Ньютона-Рафсона.
Явл.методом 1-го пор. Предназначен для реш-я СНЛУ: g1(x→)=0, g2(x→)=0,….,gn(x→)=0,(1), в кот.число уравнений = числу неизвестных. В частности этот метод м.б.применен при поиске стац.точек целевой ф-и, когда необх решить сист.ур-ний, задаваемую соотн-ем: ▼f(х→)=0. Обосн-е метода:
Шаг 0: Выб-ся точка начального приближения х→(0), точность решения ε>0
Шаг к:
а)выч-ся очередное приближение: х→(к)= х→(к-1)-Rg-1(х→(к-1)) g→ (х→(к-1)), где Rg-1(х→(к-1))-матрица Якоби, g→ (х→(к-1)) – вектор ф-ии g(х→) в точке х→(к-1), компонентами кот.явл-ся ы-ии, заданные в левых частях исходной сис-мы уравнений
б) проверяется критерий останова: |х→(к)-х→(к-1)|<ε. Если кр.вып-ся, то алгоритм заканчивает свою работу и в кач-ве решения берется последнее приближение х→(к)
22.Постановка задачи Динамического программирования (Дин.П.)
Дин.П.-совок. моделей и методов оптимизации сложных операций путем их разложений на сов-ти более простых операций.
Постановка задачи Дин.П.
Пусть операция над некот. сис-мой пред. собой совок. из n более простых операций. На к-ом шаге происх переход с-мы из состояния Sk-1 в состояние Sk под возд-ем xk.
Sk-1→Sk
Начальное сост-е S0 и конечное сост-е Sn с-мы заданы.
Треб-ся найти такое оптим упр-е X*Т=(x*1,x*2,…,x*n) всей многошаговй операции в целом,т.е.решить задачу:
W=F(S0,X)→ max, X€D
Где F(S0,X)-показатель эфф-ти (целевая ф-я ) задачи Дин.П.
24. Принцип оптимальности Беллмана.
В усл-ях отсутствия последействия и аддитивности целевой ф-ии принцип Беллмана звучит след. образом: каково бы ни было сост. сис-мы перед очередным шагом, упавление на этом шаге выбир-ся так, чтобы суммарная эфф-ть данного шага плюс оптимальная эфф-ть всех последующих шагов в целом была бы max.