- •Введение в математическую статистику.
- •15) Лемма Неймана-Пирсона (рэндомизированный и нерэндомизированный вариант).
- •21) Проверка независимости признаков.
- •Пример:
- •24) Общая задача дисперсионного анализа.
- •25) Однофакторный, двуфакторный дисперсионный анализ. Однофакторный дисперсионный анализ
- •Двуфакторный дисперсионный анализ
- •26) Байесовская классификация.
- •27) Общая постановка задачи оценивания.
- •1) Минимаксный подход.
- •2) Байесовский подход
- •28) Достаточные статистики. Критерий факторизации. Достаточные статистики
- •Критерий факторизации
- •29) Условное матожидание, его своиства.
- •30) Теорема о ковариации.
- •31) Теорема Леммана Шафе. Алгоритм построения эффективных оценок.
- •Алгоритм нахождения эффективных оценок
- •32) Примеры вывода полноты.
- •33) Доверительный интервал и примеры. Доверительный интервал.
- •Примеры
- •34) Неравенство Рао-Крамера. Теорема Рао-Крамера
- •Пример 1.
- •Пример 2.
- •Пример 3.
27) Общая постановка задачи оценивания.
Пусть существует X=(x1…xn)
p(x)=
g()- параметрическая функция в качестве оценки можно выбрать функцию от наблюдения.
(x) – оценка – т.е. произвольная функция от x.
Введем функцию потерь L(g(), (x), ) – это потери, которые мы несем от того, что в качестве оценки выбрали g(x), а на самом деле g().
Предположим, что это квадратичная оценка.
L(g(), (x))=(g() - (x))2
мы распоряжаемся только выбором оценки. Нужно найти такую, чтобы потери были минимальны. (но это случайная величина).
Рассмотрим средние потери - мат.ожидание.
E(g() - (x))2=R() – функция риска.
Теперь надо минимизировать R() за счет выбора (x).
Но для одних будет лучшей одна оценка, для других – другая.
Рассмотрим несколько подходов.
1) Минимаксный подход.
Выберем (x) : min max R()= (достигается на )=max R(,)
Каждый раз выбирается наихудший случай и добиваются минимального риска.
Но этот подход не самый лучший.
2) Байесовский подход
() – априорная плотность параметров.
R=R(() d оценка которая минимизирует R.
3) Поиск эффективных оценок.
Мы сужаем класс допустимых оценок. Часто можно сузить, так чтобы R(,) была минимальна для всех одновременно.
Это эффективная оценка.
Ограничения на оценки:
Несмещенность, т.е. предположим, что E(x)=g()
Это система уравнений (для каждого свое уравнение)
Если оценка несмещенная, то R(,)=E(g() - (x))2=D(x))
Среди всех несмещенных оценок надо выбрать такую, у которой минимальная дисперсия.
Состоятельность (x)Pg()
Эффективность – если дисперсия оценки минимальна и она несмещенная
Оценка асимптотически несмещенная, если
(x)g() при n
Оценка асимптотически эффективна, если она асимптотически несмещенная и D(x))~minD(x))
Утверждение: Если оценка асимптотически несмещенная и ее D0, то она состоятельна.
1. N(m,2), 2 – известно, =m, g(m)=m.
, Ex=Ex1=m – несмещенная
Dx=2/n0d – состоятельная
2. N(m,2), m – известно, =2, g(m)=2.
в качестве оценки выборочная дисперсия.
ES2=
DS2=
3. N(m,2), =(m,2), g()=2.
Si2=
можно считать, что Exi=0, т.к. это дисперсия, то =
ES2=
Ex2=,тогда
ESi2=2-/n=-это асимптотически несмещенная оценка.
если Si2=-несмещенная оценка
она состоятельна (DSi20). Мы предполагали, что выборка из нормального распределения.
Равномерное распределение на (0,), P(0,)
(x)=maxi<n xi, проверим несмещенность.
P(maxi<nXi<x)=||(0,)(max Xi)xn/n
P(Xi<x)=
q(x)= =
E(x)= ,т.е. оценка асимптотически несмещенная, а оценки n+1/nmaxi<nxi - несмещены
Пример отсутствия несмещенной оценки.
n=1 R(0,) g()=1/
E(x)=1/
=> для всех , но такого не существует, т.е. это смещенная оценка
28) Достаточные статистики. Критерий факторизации. Достаточные статистики
X=(x1,…,xn) P(x,0) – плотность распределения всего вектора
T=T(x1,…,xn) статистикой называется любая функция от X
Хотим определить такую статистику Т, которая содержит в себе такую же информацию о , что и вся выборка X
Это достаточная статистика.
Определение: Статистика называется достаточной, если условное распределение при фиксированном t не зависит от .
P(x,/T=t) не зависит от
Пример: P(Xi=1)=p, P(Xi=0)=q, тогда X=(0,0,1,…,0,1,1).
Покажем, что m=1nxi – достаточная статистика.
Надо взять условное распределение.
P(X1=x1, X2=x2,…,Xn=xn/Xi=m)= ==т.е. они равны и о m ничего не можем узнать, мы можем прекратить наблюдения и взять только m.