Добавил:
Upload Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:
Ответы на вопросы по ПРвУН Ж М Д Н А.docx
Скачиваний:
9
Добавлен:
31.05.2015
Размер:
726.13 Кб
Скачать

2. Основные понятия исследования операций

Операцией называется всякое мероприятие (система действий), объединенное единым замыслом и направленное к достижению какой-то цели.

Цель исследования операций - предварительное количественное обоснование оптимальных решений.

Всякий определенный выбор зависящих от нас параметров называется решениемОптимальным называются решения, по тем или другим признакам предпочтительные перед другими.

Параметры, совокупность которых образует решение, называются элементами решения.

Множеством допустимых решений называются заданные условия, которые фиксированы и не могут быть нарушены.

Показатель эффективности - количественная мера, позволяющая сравнивать разные решения по эффективности.

Все решения принимаются всегда на основе информации, которой располагает лицо принимающее решение (ЛПР).

Каждая задача в своей постановке должна отражать структуру и динамику знаний ЛПР о множестве допустимых решений и о показателе эффективности.

Задача называется статической, если принятие решения происходит в наперед известном и не изменяющемся информационном состоянии. Если информационное состояние в ходе принятия решения сменяют друг друга, то задача называется динамической.

Информационные состояния ЛПР могут по-разному характеризовать его физическое состояние:

  • Если информационное состояние состоит из единственного физического состояния, то задача называется определенной.

  • Если информационное состояние содержит несколько физических состояний и ЛПР кроме их множества знает еще и вероятности каждого из этих физических состояний, то задача называется стохастической (частично неопределенной).

Если информационное состояние содержит несколько физических состояний, но ЛПР кроме их множества ничего не знает о вероятности каждого из этих физических состояний, то задача называется неопределенной.

3. Критерий Лапласа

Этот критерий опирается на известный принцип недостаточного обоснования. Поскольку вероятности состояний q 1, q 2, ... ,q n не известны, необходимая информация для вывода, что эти вероятности различны, отсутствует. В противном случае можно было бы определить эти вероятности и ситуацию уже не следовало рассматривать как принятие решения в условиях неопределенности. Так как принцип недостаточного обоснования утверждает противоположное, то состояния q 1, q 2, ...,q n имеют равные вероятности. Если согласиться с приведенными доводами, то исходную задачу можно рассматривать как задачу принятия решений в условиях риска, когда выбирается действие ai , дающее ожидаемый выигрыш.

Другими словами, находится действие ai* , соответствующее

(1)

- вероятность реализации состояния q j ( j=1,2, ... ,n),

Пример. Одно из предприятий должно определить уровень предложения услуг так, чтобы удовлетворить потребности клиентов в течение предстоящих праздников. Точное число клиентов не известно, но ожидается, что оно может принять одно из четырех значений: 200, 250, 300 или 350 клиентов. Для каждого из этих возможных значений существует наилучший уровень предложения (с точки зрения возможных затрат). Отклонения от этих уровней приводят к дополнительным затратам либо из-за превышения предложения над спросом, либо из-за неполного удовлетворения спроса.

В таблице приведены потери в тысячах долларов.

Клиенты

Таблица 2 - Уровень предложения

q 1

q 2

q 3

q 4

a1

5

10

18

25

a2

8

7

8

23

a3

21

18

12

21

a4

30

22

19

15

Принцип Лапласа предполагает, что q 1, q 2, q 3, q 4 равновероятны.

Следовательно, P{q =q j } =1/4, j= 1, 2, 3, 4, и ожидаемые потери при различных действиях a1, a2, a3, a4 составляют

E{a1}= (1/4)(5+10+18+25)=14,5

E{a2}= (1/4)(8+7+8+23)=11,5

E{a3}= (1/4)(21+18+12+21)=18,0

E{a4}= (1/4)(30+22+19+15)=21,5

Таким образом, наилучшим уровнем предложения в соответствии с критерием Лапласа будет a2.

4 Принятие решений, как снятие неопределенности (информационный подход)

Процесс получения информации можно рассматривать как уменьшение неопределенности в результате приема сигнала, а количество информации, как количественную меру степени снятия неопределенности.

Но в результате выбора некоторого подмножества альтернатив из множества, т.е. в результате  принятия решения, происходит тоже самое (уменьшение неопределенности).

Это значит, что каждый выбор, каждое решение порождает определенное количество информации, а значит может быть описано в терминах теории информации.

Простейшее понятие об информации (подход Хартли).

Будем считать, что если существует множество элементов и осуществляется выбор одного из них, то этим самым сообщается или генерируется определенное количество информации. Эта информация состоит в том, что если до выбора не было известно, какой элемент будет выбран, то после выбора это становится известным.

Найдем вид функции, связывающей количество информации, получаемой при выборе некоторого элемента из множества, с количеством элементов в этом множестве, т.е. с его мощностью.

Если множество элементов, из которых осуществляется выбор, состоит из одного-единственного элемента, то ясно, что его выбор предопределен, т.е. никакой неопределенности выбора нет. Таким образом, если мы узнаем, что выбран этот единственный элемент, то, очевидно, при этом мы не получаем никакой новой информации, т.е. получаем нулевое количество информации.

Если множество состоит из двух элементов, то неопределенность выбора минимальна. В этом случае минимально и количество информации, которое мы получаем, узнав, что совершен выбор одного из элементов. Минимальное количество информации получается при выборе одного из двух равновероятных вариантов. Это количество информации принято за единицу измерения и называется "бит".

Чем больше элементов в множестве, тем больше неопределенность выбора, тем больше информации мы получаем, узнав о том, какой выбран элемент.

Рассмотрим множество, состоящее из чисел в двоичной системе счисления длиной i двоичных разрядов. При этом каждый из разрядов может принимать значения только 0 и 1 (таблица 3).

 

Таблица 3 – К эвристическому выводу формулы количества информации по Хартли

Кол-во

двоичных

разрядов (i)

Кол-во состояний N,

которое можно пронумеровать

i-разрядными двоичными числами

Основание

системы счисления

10

16

2

1

2

0

1

0

1

    0

    1

2

4

0

1

2

3

0

1

2

3

   00

   01

   10

   11

3

8

0

1

2

3

4

5

6

7

0

1

2

3

4

5

6

7

  000

  001

  010

  011

  100

  101

  110

  111

4

16

0

1

2

3

4

5

6

7

8

9

10

11

12

13

14

15

0

1

2

3

4

5

6

7

8

9

A

B

C

D

E

F

 0000

 0001

 0010

 0011

 0100

 0101

 0110

 0111

 1000

 1001

 1010

 1011

 1100

 1101

 1110

 1111

***

***

 

 

 

i

N=2i

 

 

 

 

Из таблицы 32 очевидно, что количество этих чисел (элементов) в множестве равно:

 

Рассмотрим процесс выбора чисел из рассмотренного множества. До выбора вероятность выбрать любое число одинакова. Существует объективная неопределенность в вопросе о том, какое число будет выбрано. Эта неопределенность тем больше, чем больше N – количество чисел  в множестве, а чисел тем больше – чем больше разрядность i этих чисел.

Примем, что выбор одного числа дает нам следующее количество информации:

 

Таким образом, количество информации, содержащейся в двоичном числе, равно количеству двоичных разрядов в этом числе. Это количество информации i мы получаем, когда случайным равновероятным образом выпадает одно из двоичных чисел, записанных i разрядами, или из некоторого множества выбирается объект произвольной природы, пронумерованный этим числом (предполагается, что остальные объекты этого множества пронумерованы остальными числами и этим они и отличаются).

Это выражение и представляет собой формулу Хартли для количества информации. Отметим, что оно полностью совпадает с выражением для энтропии (по Эшби), которая рассматривалась им как количественная мера степени неопределенности состояния системы.

Сам Хартли, возможно, пришел к своей мере на основе эвристических соображений, подобных только что изложенным, но в настоящее время строго доказано, что логарифмическая мера для количества информации однозначно следует из этих двух постулированных им условий.

Таким образом, информация по своей сущности теснейшим и органичным образом связана с выбором и принятием решений.

Отсюда следует простейшее на первый взгляд заключение: "Для принятия решений нужна информация, без информации принятие решений невозможно, значение информации для принятия решений является определяющим, процесс принятия решений генерирует информацию".