- •Лекция № 1 Место и роль дисциплины в общеобразовательной структуре
- •Алгебра случайных событий
- •Понятие вероятности случайного события.
- •Лекция №2 Статистическая устойчивость вероятности события.
- •Аксиоматическое определение вероятности (по Колмагорову).
- •Элементарные теоремы теории вероятности.
- •Теорема вероятности полной группы событий.
- •Теорема сложения вероятностей.
- •Лекция № 3. Теорема о полной вероятности
- •(Схема независимых последовательных испытаний длиной n)
- •Биноминальное распределение (1) случайной величины
- •Геометрическая вероятность случайного события
- •Лекция №4 Полиномиальное распределение (схемы)
- •Ассимтотические приближения биноминального распределения (для схемы Бернулли)
- •3Способа аппроксимации данной формулы:
- •Лекция №5 Случайная величина
- •Функция распределения для непрерывной случайной величины
- •Лекция №6 Числовые характеристики случайной величины
- •Моментные характеристики
- •Центрированные моменты Центральные моменты
- •Дисперсия для непрерывной случайной величины
- •Лекция № 7
- •Примеры распределения случайной величины.
- •Лекция № 8
- •Лекция № 9
- •Лекция № 10
- •Лекция № 11 Теорема числовых характеристик
- •Лекция № 12 Центральные предельные теоремы
- •Случайные процессы
- •Свойства случайного процесса
- •Лекция № 13
- •Лекция № 14 Разложение апериодических случайных процессов.
- •Спектральная плотность случайного процесса.
- •Лекция № 15
- •Лекция № 16
- •Основные задачи математической статистики
- •Лекция №17 Задача оценивания параметров распределения Формальная постановка задачи
- •Лекция №18 Представление об интервальных оценках
- •Лекция 19 Логическая схема проведения испытаний статистической гипотезы.
- •Лекция № 20 Корреляционный и регрессионный анализ
- •Лекция № 21 Анализ временных рядов
Лекция №17 Задача оценивания параметров распределения Формальная постановка задачи
Считается, что результаты эксперимента представляют собой выборки X = (x1,x2,…,xn) из неизвестной случайной величины.
x1,x2,…,xn – варианты выборки.
Считается, что в этой задаче случайная величина известна с точностью до параметров. Уточним это допущение. Предположим, что мы имеем дело с непрерывной случайной величиной. Известна функция, описывающая плотность распределения f(x,a). Это означает, что формула, задающая функцию кроме переменной x содержит постоянную a, которую называют параметром этой функции.
Например для экспоненциального распределения:
f(x,λ) = λе- λх
где х – переменная;
λ – постоянная, но она не известна исследователю.
Нужно уточнить значение λ, обработав выборку Х. Рассмотрим в общем виде результат такой обработки. Обработав выборку, найдя правило, в результате получим значение а над выборкой Х:
а* = φ(х) (1)
Правило φ известно, но аргументом этого правила является выборка Х. Следовательно любое намеренное действие над случайным событием приводит к тому что мы получим случайную величину а ≈ а*. Точное значение неизвестного параметра мы не можем найти , а можем найти некоторое приближение к нему, рассчитанное по правилу (1). Это приближение а* называют оценкой истинного параметра а. Смысл слова «оценка», что мы находим приближенное значение параметра а. Какое же приближение будет хорошим? Это хорошее приближение называют хорошими оценками.
Свойства хороших оценок
Поскольку модель оценки есть случайная величина, то мы можем использовать разные свойства случайных величин:
M[a*] = a - свойство несмещенности оценки: если мы найдем среднее значение, или мат. ожидание то оно должно совпадать с истинным значением.
M[(a* - M[a*])2] → min - эффективность оценки: мат. ожидание центр облака. Эффективность – это разброс оценок относительно M[х]. Если мы найдем такое правило φ1, при котором разброс будет минимальным, то такая оценка будет эффективной. Если M[a*] = a, то мы получаем дисперсию. Но не для всех правил φ оценка может быть эффективной, есть такие правила. для которых оценка будет ассиметрически эффективной, n→∞, когда момент стремится к min при очень больших размерах выборки.
P{| a* - a |≤ ξ} ≥ 1- δ
n→∞ ξ, δ→ 0
Можно найти такое n, что модуль отклонение параметра не больше ξ, стремится к единице.
Если речь в (1) о правиле φ, фраза «оценка параметра» отражает особенность правила φ, по которому рассчитывается оценка в левой части уравнения (1). Другой смысл этой фразы: число, количественное значение левой части (1).
Методы определения оценок
Метод моментов при следующих допущениях:
считается, что в результате эксперимента сформирована выборка Х.
считается, что исследователю известна плотность распределения f(x,a) с точностью до параметров.
Ищется правило φ, предположим а* = φ(Х)
Понятие момента: b
M(k) [X] = ∫ xk f(x) dx
a
момент тоже зависит от параметра.
b
M(k) [X] = ∫ xk f(x,а) dx
a
M(k) [X] = φ(а) (2) - определяет k-ый момент и позволяет определить зависимость от неизвестного параметра а.
Если получить эмпирические выражения для k-го момента и приравнять к теоретическому, то получим истинное а. Можем найти его приближение, заменив его в формуле(2) эмпирическим моментом.
n
Mэ(k) ≈ Mт(k) ≈1/n ∑ xik
i=1
случайная величина
Mэ(k) = φ(а) → а* Теперь левая часть известна, φ- известна, решаем уравнение и находим а* (оценку). Полагаем, что k=1 и тогда в качестве эмпирического момента можно использовать 1-ый эмпирический момент:
n
Mэ = 1/n ∑ xi =
i=1
Если плотность зависит от нескольких параметров, например ν-распределение, то одного момента мало: k=2, нужно найти выборочную дисперсию. Необходимо решить систему:
при k=1
при k=2
Преимущество метода моментов: простота, ясность метода.
Недостатки метода моментов:
редко дает хорошие оценки;
нет обоснования почему в качестве условия нахождения оценок выбраны моментные характеристики.
Примечание: если рассматривается дискретная случайная величина ничего принципиально не меняется, меняется только формула для расчета моментов.
Метод максимального правдоподобия
Идея метода: предположим, выборка Х рассматривается как гиперплоскость, каждая координата которой совпадет с номером варианта. При этом предполагается, что все варианты независимые случайно распределенные случайные величины имеют функцию распределения F(x)
Конкретная выборка есть точка вn-мерном пространстве. Предположим, что мы имеем дело с дискретной случайной величиной. Распределение случайной величины будет зависеть от параметра выборки.
х2
х1
х3
Так как случайная величина, то мы используем следующую формулу вероятности:
P(X,a) = P(X1,a)* P(X2,a)*…* P(Xn,a) (**) – функция max правдоподобия
n1+n2+…+nk = n
P(a)* dP(a)/da = 0 → а*
P(a) = lnP(a) = α
dα/da = 0
Для непрерывной случайной величины:
n
L1(X,a) = П f(xi,a) - функция max правдоподобия
i=1
L = ln L1,
Если плотность распределения зависит от нескольких параметров, то составляем систему уравнений вида:
a = (a1,a2,…,an) Если система имеет решения, то оценка хорошая.
= 0 → a*
Метод min χ2
χ2 = n - число участков, на которые разбивают выборку Х
ni – число вариантов, попавших на i-й участок
pi – вероятность попадания случайной величины на i-й участок, рассчитанная по функции распределения
Нужно найти такую оценку а, чтобы среднее расстояние χ2 →min.