Добавил:
Upload Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:

Ответы

.pdf
Скачиваний:
21
Добавлен:
05.06.2015
Размер:
620.81 Кб
Скачать

 

 

Автоматизация проектирования: Принятие решений

 

1.

Линейное оценивание случайных величин ..................................................................

1

2.

Прогнозирование значений случайных величин .........................................................

2

3.

Оптимальные оценки для случайных величин при среднеквадратическом

критерии оптимальности ....................................................................................................

3

4.

Риск и его количественные характеристики ................................................................

4

5.

Постановка задачи проверки параметрических гипотез .............................................

5

6.

Ошибки первого и второго рода ....................................................................................

6

7.

Проверка простых конкурирующих гипотез................................................................

7

8.

Выборка из генеральной совокупности и ее описание................................................

8

9.

Теорема Пирсона для параметрических гипотез .........................................................

9

10.

Вальдовская редукция сложной гипотезы ................................................................

11

11.

Критерии оптимальности при проверке гипотез .....................................................

12

12.

Критические области для гипотез .............................................................................

13

13.

Формула полной вероятности при проверке сложных гипотез..............................

14

14.

Проверка многих гипотез ...........................................................................................

15

15.

Стоимость риска ..........................................................................................................

16

16.

Учет ошибок первого и второго рода при проверке гипотез..................................

17

 

 

 

 

17.

Стохастическая постановка задачи распределения средств

...................................

18

 

 

 

18.

Анализ рисков в задаче распределения средств

.......................................................

18

19.

Функция контроля технологического процесса.......................................................

19

20.

Понятие уставки и цель его введения .......................................................................

19

21.

Расчет уставок при прямых измерениях ...................................................................

19

22.

Понятие матричной игры............................................................................................

20

23. Смешанные стратегии.................................................................................................

20

24.

Оптимальные смешанные стратегии.........................................................................

20

25.

Минимаксные стратегии.............................................................................................

20

26.

Понятие доверительного интервала ..........................................................................

22

27.

Пример построения доверительного интервала.......................................................

22

000. Недостатки теоремы Пирсона (всего 3) ..................................................................

23

001. Применение критических областей в доверительных множествах .....................

24

Дополнительные вопросы ................................................................................................

25

 

 

0

 

 

 

1. Линейное оценивание случайных величин

– ненаблюдаемая случайная величина;

 

– наблюдаемая случайная величина, коррелированная с ;

 

требуется найти линейную оценку ̂

, причем величины могут быть

распределены не по нормальному закону.

Пример: вес человека зависит от роста, и хотим представить эту зависимость как линейную.

Критерий оптимальности - среднеквадратичная ошибка (дисперсия) минимальна:

 

[( ̂

) ]. Подставляя выражение для оценки, получаем:

 

 

[(

 

 

 

 

 

 

 

)

], где константа

 

 

 

 

[

]

[

 

]. Раскрывая:

 

 

[ ]

 

 

 

[

 

]

[

 

],

где

[

 

 

] – корреляционная функция, то

есть матожидание произведения двух случайных величин.

 

Приравнивая

 

 

 

 

,

 

 

, получаем оптимальные значения коэффициентов:

 

 

 

 

 

 

 

[

]

,

 

 

 

, откуда

[

]

[

]

[

 

 

]. Тогда вид оценки ̂ :

 

[

]

 

 

 

[ ]

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

̂

 

 

 

 

[

 

]

 

 

 

 

 

 

[

]

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

[

]

 

[

] (

 

 

[ ])

[

]

[

]

 

 

[

]

(

[ ]), где за

 

 

 

 

 

 

обозначен коэффициент корреляции

[

]

 

 

 

[

]

 

.

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

[ ]

[

]

 

Минимальное значение критерия равно

 

 

 

 

[

](

 

).

 

Если законы распределения нормальные, то ̂ – матожидание случайной величины , а – ее дисперсия.

Пример по-настоящему линейной зависимости: «на глазок» нужно разлить 0.5л сока

в два стакана. В каждом из них окажется случайное количество сока

и , но

, что определяет их линейную функциональную зависимость.

 

1

2. Прогнозирование значений случайных величин

–непрерывная случайная величина;

( ) – плотность распределения известна;

q – прогнозируемое значение (число).

Конечно, вероятность того,

что точно равно q – нулевая. Но попробуем найти q

такое, чтобы ошибка предсказания

 

 

имела

наименьший разброс σ2[ε].

Критерий оптимальности:

 

 

 

[ ]

[(

)

] ∫(

) ( )

.

 

Приравниваем производную

 

 

к нулю, при этом дифференцирование производится

 

 

под знаком интеграла.

 

 

 

 

 

 

 

 

 

 

 

(

) ( )

=

(

)

(

)

[ ]

, то

[ ].

 

 

 

 

 

 

 

 

По сути, использование данного критерия означает,

что в качестве платы

за

ошибку предсказания выбрана величина

(

)

которая является случайной

величиной (функцией от случайного результата наблюдения)

 

 

Минимизация средней платы и дает возможность получить оптимальное прогнозное значение [ ]. Матожидание как прогнозная оценка имеет смысл только при многократном применении процедуры прогнозирования.

Общая постановка задачи прогнозирования:

– случайная величина;

( ) – ее плотность распределения;

q – прогнозируемое значение;

 

– ошибка;

 

( ) – плата за ошибку;

 

∫ ( ) ( ) – средняя плата за ошибку, будем ее минимизировать.

То же самое можно обобщить на многомерный случай.

Риск при прогнозировании: ошибки разных знаков могут иметь разные последствия. Пример: если результатом измерения температуры тепловыделяющей сборки

является

, где

- реальное, но неизвестное значение температуры,

то

среднеквадратичный критерий советует поддерживать значение

.

Вероятность

недогрева

0.5,

вероятность перегрева тоже 0.5. Но недогрев ведет

только к потерям мощности,

а перегрев – к выходу из строя, что гораздо дороже.

 

2

3

3. Оптимальные оценки для случайных величин при среднеквадратическом критерии оптимальности

Имеется общий критерий несмещенных оценок, если мерой качества является

средний

квадрат отклонения:

[(̂

) ]

[̂] . Критерий заключается в

следующем:

 

 

 

 

̂(

) – несмещенная оценка для параметрической функции ( );

 

 

– результаты наблюдений;

 

 

 

плотность распределения

(

) зависит от неизвестного параметра .

Оценка ̂ имеет минимальную дисперсию тогда и только тогда, когда она не

коррелирована при

с любой оценкой ̂(

), имеющей нулевое

матожидание и конечную дисперсию.

 

Если ̂ имеет минимальную дисперсию при любых

, ее называют несмещенной

оценкой с равномерной минимальной дисперсией. Важное следствие: линейная комбинация таких оценок тоже будет несмещенной оценкой с равномерной

минимальной дисперсией.

 

 

 

 

 

Аппроксимация данных методом наименьших квадратов.

 

 

 

Задача: есть набор экспериментальных

точек (

).

Найти

аналитическое

выражение зависимости

( ).

 

 

 

 

Начинаем снимать эксперимент точки ->

появляются

точки

-> появляется

характеристика. В этой характеристике есть отклонения. Можно линейную или

экспоненциальную аппроксимацию в качестве зависимости

(

).

Линейная аппроксимация – выбираем

, где k

и

b – неизвестные

параметры. Требуется их найти. Для количественного задания оптимальности

вводится критерий оптимальности:

∑(

( )) . Здесь

(

) – отклонение

экспериментальной величины

в точке

от ее модельного значения

( ).

Имеющаяся информация

 

 

 

 

 

 

 

 

 

 

(

) - координаты 1-й точки;

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

(

) - координаты i-й точки.

 

 

 

 

 

 

 

Функция

∑(

(

))

(

) должна иметь минимум. Чтобы найти k и

b берем частные производные по ним и приравняем нулю:

 

 

 

.

 

 

Получаем систему линейных уравнений относительно k и b. Все коэффициенты этих уравнений определяют значения координат экспериментальных точек.

Недостаток метода: аппроксимирующее выражение можно взять любым, и за редким исключением система будет иметь однозначное решение.

Более общий подход к МНК - аппроксимирующее выражение может выбираться в

виде ( ) ∑

( ).

 

 

Здесь

коэффициенты

регрессии, подлежащие определению по

экспериментальным данным,

( )

координатные функции, выбираемые

экспериментально.

 

 

4. Риск и его количественные характеристики

Риск - возможность появления неблагоприятного случайного события.

Простейшей количественной характеристикой риска является вероятность наступления рассматриваемого неблагоприятного события, однако порой трудно сказать, является ли известное значение вероятности большим или нет.

Пример: если дождь может испортить вам дорогую одежду, то даже самое маленькое значение вероятности появления дождя следует воспринимать как существенное.

Также стоит добавить понятие веса (стоимости) ошибки и определять оптимальное значение оценки исходя из условия минимальных средних потерь при многократном принятии решений.

Цель анализа риска заключается в том, чтобы использовать имеющиеся ресурсы во избежание потерь, связанных с наступлением неблагоприятного события. Это приводит к трактовке количественной меры риска как математического ожидания ущерба, определяемого на множестве возможных неблагоприятных событий.

В соответствии с таким толкованием в качестве количественной меры риска целесообразно использовать показатель, одновременно учитывающий две характеристики неблагоприятного события – вероятность его наступления и величину причиняемого им ущерба.

Следует отметить, что в частном случае, когда функция стоимости ошибки имеет квадратичный вид ( ) , оптимальное решение всегда совпадает с математическим ожиданием случайной величины . На примерах видно, что такой критерий применим не всегда.

Пример: если результатом измерения температуры тепловыделяющей сборки

является

,

где

- реальное, но неизвестное значение температуры,

то

среднеквадратичный

критерий советует поддерживать значение

.

Вероятность недогрева 0.5, вероятность перегрева тоже 0.5. Но недогрев ведет только к потерям мощности, а перегрев – к выходу из строя, что гораздо дороже. Пример:

требуется купить q единиц товара;

 

 

 

 

 

 

 

 

 

 

 

 

реальная

потребность

– случайная величина ,

распределенная

по

закону

 

{

 

 

;

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

потери

(

)

(

) при нехватке

;

 

 

 

 

 

 

 

 

 

потери

(

)

(

) при избытке

.

 

 

 

 

 

 

 

 

Интеграл в критерии оптимальности можно вычислить:

 

 

 

 

 

 

 

 

(

)

 

(

)

 

 

 

 

(

)

 

 

 

 

 

 

 

 

 

 

(

 

 

),

Приравнивая производную по q к нулю,

получаем

решение

 

 

 

 

 

которое существенно отличается от

[ ]

 

 

и зависит от соотношения стоимостей

 

 

положительных и отрицательных ошибок.

 

 

 

 

 

 

 

 

 

 

 

4

5. Постановка задачи проверки параметрических гипотез

Задача контроля качества продукции содержащей N однотипных изделий по результатам испытаний выборки сравнительно малого объёма. Партия считается хорошей, если истинная доля дефектных изделий не превосходит заданного граничного значения.

Все подобные задачи можно описать таким образом: необходимо удостоверится, можно ли принять решение, заключающееся в том, что неизвестный неслучайный параметр (истинная доля неблагоприятных исходов, интенсивность отказов и т.д.) находится в заданных пределах.

Параметрической

гипотезой

(

) называют утверждение, заключающееся

в

принадлежности

значения

неизвестного параметра

области

, где

-

всевозможные значений параметра ,

.

 

 

 

Процедура проверки основана на разбиении всего выборочного пространства на две части W и ̅ с последующим анализом места попадания послеопытного значения

выборочного вектора.

Если значение

попадает в W, то гипотезу Н отвергают и

принимается противоположная ̅. В противном случае гипотеза H принимается.

Область W называют критической областью для гипотезы Н.

 

Дано:

 

 

 

 

 

 

 

аналитический вид закона распределения выбранного значения, например

 

плотность распределения

[

] где

параметр закона;

 

 

результаты

наблюдения выборочных значений

;

 

множество всевозможных значений параметра;

 

 

подмножество

множества

,

 

;

 

неизвестен.

Требуется принять или отвергнуть гипотезу Н. Сложности:

пока эксперимент не проведен - результаты случайны;

выборочные значения всегда случайны;

с точки зрения эксперимента невозможно узнать, какая оценка ближе к

гипотезе.

Необходимо иметь закон распределения случайной величины.

В зависимости от закона распределения меняется формула для оценки.

Выборочное пространство – множество всевозможных результатов наблюдений. Размерность совпадает с числом экспериментов.

Критическая область – область размера , если вероятность попадания в нее в условиях Н равна Гипотеза называется простой, если в ее условиях известен закон распределения выборочного значения.

Критических областей размера для простой параметрической гипотезы существует бесчисленное множество, то есть это любая область, куда попадает выбранное значение.

Из всех критических областей надо выбрать оптимальную. Для двух простых гипотез существует теорема Пирсона об оптимальных критических областях.

5

6. Ошибки первого и второго рода

Если из некоторых соображений выбрана критическая область W, вероятность попадания в которую отлична от нуля и единицы, то процедуре проверке гипотез сопутствуют возможные ошибки:

ошибка первого рода - принять ̅, когда имеет место Н (отвергнута правильная гипотеза;

ошибка второго рода - принять Н, когда имеет место ̅ (принята неправильная гипотеза).

Ошибки первого рода часто называют рисками поставщика и заказчика соответственно. При определенных условиях можно говорить о вероятности этих ошибок:

- вероятность ошибки первого рода;

- вероятность ошибки второго рода.

Величины

и

, если они существуют, зависят от выбранной критической

области.

Например,

если W совпадает со всем выборочным пространством, то

ошибка второго рода невозможна. Если же W является пустым множеством (не содержит ни одной точки), то невозможна ошибка первого рода.

Задача построения процедуры проверки гипотез обычно сводится к выбору хорошей критической области, когда обеспечиваются приемлемые значения и .

6

7. Проверка простых конкурирующих гипотез

Гипотеза называется простой, если в ее условиях известен закон распределения выборочного значения (в общем случае – закон распределения выборочного вектора).

Хотя на практике чаще всего приходится иметь дело со сложными гипотезами, понятие простой гипотезы имеет большое теоретическое значение. Некоторые сложные гипотезы можно свести к простым гипотезам посредством Вальдовской редукции.

Для двух простых конкурирующих гипотез Н и ̅ имеет место теорема Пирсона: Оптимальной критической областью для гипотезы H при выбранном значении вероятности ошибки первого рода , является область, определяемая неравенством:

(

⁄̅)

 

(

⁄ ) , где

 

(

⁄ ) -

плотность распределения выборочного вектора в условиях

 

справедливости H;

 

 

(

⁄̅) -

плотность распределения выборочного вектора в условиях

справедливости ̅;

C=ψ(α1) – константа, определяющая вероятности ошибок первого и второго рода.

Если константа C выбрана, то критическая область W полностью определена. Оптимальность критической области в теореме Пирсона означает, что среди всех критических областей, для которых α1 имеет заданное значение (таких критических областей существует бесчисленное множество), α2 минимальна для оптимальной критической области.

При очень близких значениях матожиданий m1, m2 и большой дисперсии гипотезы трудно различимы. Поэтому требуется достаточно большой объем выборки n, чтобы с малыми ошибками принимать или отвергать эти гипотезы. Фактически, если n очень велико, то математическое ожидание может быть оценено с высокой точностью (если n=∞, то истина становится известной). Если же m1, m2 сильно разнятся и дисперсия мала, то гипотезы сильно отличаются друг от друга, и они могут приниматься с малыми ошибками при незначительных объемах выборки.

Использование критерия оптимальности позволяет проводить проверку многих

простых конкурирующих

параметрических

гипотез

, если известны

вероятности

их появления.

Поскольку гипотезы

проверяются в

выборочном пространстве, то конечной целью построения статистического теста

является разбиение выборочного пространства на

непересекающиеся части

. Разбиение и является инструкцией для принятия гипотез: если

значение результата эксперимента попадает в область

, то принимается гипотеза

.

 

7

8. Выборка из генеральной совокупности и ее описание

Теория вероятности неполна, т.е. реально значения вероятностей и законы

распределения нужно определять из эксперимента. Вектор

имеет неизвестный

закон распределения (например, плотность распределения (

)), который не

может быть определен по единственному значению вектора x (одна из возможных

реализаций вектора случайных величин

). Т.е. необходимо

вводить

дополнительную информацию, например:

 

 

 

постулирование аналитического вида закона распределения (

) где

 

– неизвестный параметр;

 

 

 

постулирование независимости величин

;

 

 

введения условия одинакового закона распределения всех ;

 

 

другие модельные сведения.

 

 

Если все независимы и имеют одинаковые законы распределения, то совокупность этих случайных величин называют выборкой из генеральной

совокупности, описываемой законом (

), а

называют

выборочными

значениями.

 

 

 

Закон распределения не определен, пока

параметр

закона (

) неизвестен,

откуда возникает задача оценивания по выборочным значениям. Таким образом,

параметру ставят в соответствие оценку ̂ ̂(

)

– функцию выборочных

значений. Число ̂ ̂(

) является одним из возможных значений оценки .

Иногда, хорошими оценками являются линейные, когда ̂

.

8

9. Теорема Пирсона для параметрических гипотез

Для двух простых конкурирующих гипотез Н и ̅ имеет место теорема Пирсона: Оптимальной критической областью для гипотезы H при выбранном значении вероятности ошибки первого рода , является область, определяемая неравенством:

(

⁄̅)

 

(

⁄ ) , где

 

(

⁄ ) -

плотность распределения выборочного вектора в условиях

 

справедливости H;

 

 

(

⁄̅) -

плотность распределения выборочного вектора в условиях

справедливости ̅;

C=ψ(α1) – константа, определяющая вероятности ошибок первого и второго рода.

(

⁄ )

̅̅̅ (

⁄̅)

Рассмотрим простейший пример, когда по единственному результату наблюдения ξ, имеющему нормальный закон распределения с неизвестным математическим ожиданием m, требуется проверить простую гипотезу Н : m = 1. Дисперсию считаем известной, пусть σ2 = 1. Выберем значение α1= 0,1. Тогда можно рассмотреть две разные критические области:

W1: x≤ l-Ф-1(0,1) = -0,28 и W2 : х>1 + Ф-1 (0,1)=2,28.

Пока не введен дополнительно критерий оптимальности критической области, ни одной из них нельзя отдать предпочтение. Таким критерием оптимальности в теореме Пирсона является вероятность ошибки второго рода, т.е. что среди всех критических областей, для которых α1 имеет заданное значение (таких критических областей существует бесчисленное множество), α2 минимальна. Но он может быть использован только при рассмотрении двух конкурирующих гипотез. Пусть конкурирующей гипотезой ̅ является предположение: m = 10. Сравним теперь две рассмотренные критические области W1 и W2 (слева и справа соответственно).

Для случая левого рисунка вероятность ошибки 2 рода ≈1, т.к. если экспериментальное значение больше граничного xг1, то принимаем гипотезу H. Получится, что даже если экспериментальное значение близко к значению ̅ – мы принимаем гипотезу H (а это ошибка 2 рода). Для правого рисунка ошибка 2 рода гораздо меньше. Это происходит за счет того, что до значения xг2 всегда

9