Добавил:
Upload Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:
лекции по мат.стат..doc
Скачиваний:
41
Добавлен:
11.04.2015
Размер:
1.74 Mб
Скачать

Лекция №17 Задача оценивания параметров распределения Формальная постановка задачи

Считается, что результаты эксперимента представляют собой выборки X = (x1,x2,…,xn) из неизвестной случайной величины.

x1,x2,…,xn – варианты выборки.

Считается, что в этой задаче случайная величина известна с точностью до параметров. Уточним это допущение. Предположим, что мы имеем дело с непрерывной случайной величиной. Известна функция, описывающая плотность распределения f(x,a). Это означает, что формула, задающая функцию кроме переменной x содержит постоянную a, которую называют параметром этой функции.

Например для экспоненциального распределения:

f(x,λ) = λе- λх

где х – переменная;

λ – постоянная, но она не известна исследователю.

Нужно уточнить значение λ, обработав выборку Х. Рассмотрим в общем виде результат такой обработки. Обработав выборку, найдя правило, в результате получим значение а над выборкой Х:

а* = φ(х) (1)

Правило φ известно, но аргументом этого правила является выборка Х. Следовательно любое намеренное действие над случайным событием приводит к тому что мы получим случайную величину а ≈ а*. Точное значение неизвестного параметра мы не можем найти , а можем найти некоторое приближение к нему, рассчитанное по правилу (1). Это приближение а* называют оценкой истинного параметра а. Смысл слова «оценка», что мы находим приближенное значение параметра а. Какое же приближение будет хорошим? Это хорошее приближение называют хорошими оценками.

Свойства хороших оценок

Поскольку модель оценки есть случайная величина, то мы можем использовать разные свойства случайных величин:

  1. M[a*] = a - свойство несмещенности оценки: если мы найдем среднее значение, или мат. ожидание то оно должно совпадать с истинным значением.

  2. M[(a* - M[a*])2] → min - эффективность оценки: мат. ожидание центр облака. Эффективность – это разброс оценок относительно M[х]. Если мы найдем такое правило φ1, при котором разброс будет минимальным, то такая оценка будет эффективной. Если M[a*] = a, то мы получаем дисперсию. Но не для всех правил φ оценка может быть эффективной, есть такие правила. для которых оценка будет ассиметрически эффективной, n→∞, когда момент стремится к min при очень больших размерах выборки.

  3. P{| a* - a |≤ ξ} ≥ 1- δ

n→∞ ξ, δ→ 0

Можно найти такое n, что модуль отклонение параметра не больше ξ, стремится к единице.

Если речь в (1) о правиле φ, фраза «оценка параметра» отражает особенность правила φ, по которому рассчитывается оценка в левой части уравнения (1). Другой смысл этой фразы: число, количественное значение левой части (1).

Методы определения оценок

Метод моментов при следующих допущениях:

  1. считается, что в результате эксперимента сформирована выборка Х.

  2. считается, что исследователю известна плотность распределения f(x,a) с точностью до параметров.

Ищется правило φ, предположим а* = φ(Х)

Понятие момента: b

M(k) [X] = ∫ xk f(x) dx

a

момент тоже зависит от параметра.

b

M(k) [X] = ∫ xk f(x,а) dx

a

M(k) [X] = φ(а) (2) - определяет k-ый момент и позволяет определить зависимость от неизвестного параметра а.

Если получить эмпирические выражения для k-го момента и приравнять к теоретическому, то получим истинное а. Можем найти его приближение, заменив его в формуле(2) эмпирическим моментом.

n

Mэ(k) ≈ Mт(k) ≈1/n ∑ xik

i=1

случайная величина

Mэ(k) = φ(а) → а* Теперь левая часть известна, φ- известна, решаем уравнение и находим а* (оценку). Полагаем, что k=1 и тогда в качестве эмпирического момента можно использовать 1-ый эмпирический момент:

n

Mэ = 1/n ∑ xi =

i=1

Если плотность зависит от нескольких параметров, например ν-распределение, то одного момента мало: k=2, нужно найти выборочную дисперсию. Необходимо решить систему:

при k=1

при k=2

Преимущество метода моментов: простота, ясность метода.

Недостатки метода моментов:

  1. редко дает хорошие оценки;

  2. нет обоснования почему в качестве условия нахождения оценок выбраны моментные характеристики.

Примечание: если рассматривается дискретная случайная величина ничего принципиально не меняется, меняется только формула для расчета моментов.

Метод максимального правдоподобия

Идея метода: предположим, выборка Х рассматривается как гиперплоскость, каждая координата которой совпадет с номером варианта. При этом предполагается, что все варианты независимые случайно распределенные случайные величины имеют функцию распределения F(x)

Конкретная выборка есть точка вn-мерном пространстве. Предположим, что мы имеем дело с дискретной случайной величиной. Распределение случайной величины будет зависеть от параметра выборки.

х2

х1

х3

Так как случайная величина, то мы используем следующую формулу вероятности:

P(X,a) = P(X1,a)* P(X2,a)*…* P(Xn,a) (**) – функция max правдоподобия

n1+n2+…+nk = n

P(a)* dP(a)/da = 0 → а*

P(a) = lnP(a) = α

dα/da = 0

Для непрерывной случайной величины:

n

L1(X,a) = П f(xi,a) - функция max правдоподобия

i=1

L = ln L1,

Если плотность распределения зависит от нескольких параметров, то составляем систему уравнений вида:

a = (a1,a2,…,an) Если система имеет решения, то оценка хорошая.

= 0 → a*

Метод min χ2

χ2 = n - число участков, на которые разбивают выборку Х

ni – число вариантов, попавших на i-й участок

pi – вероятность попадания случайной величины на i-й участок, рассчитанная по функции распределения

Нужно найти такую оценку а, чтобы среднее расстояние χ2 →min.