- •2. Алгебра событий. Основные операции над событиями. Теорема сложения вероятностей. Следствия.
- •3. Условная вероятность. Теорема умножения вероятностей. Следствия. Независимость событий.
- •4. Использование формул комбинаторики при непосредственном вычислении вероятностей событий.
- •5. Формула полной вероятности и Байеса.
- •6. Повторение независимых испытаний. Схема Бернулли. Формула Бернулли.
- •7. Дискретная случайная величина. Ряд распределения. Функция распределения.
- •8. Числовые характеристики дискретной св.
- •3. Среднее квадратическое отклонение
- •9. Биномиальное распределение. Частная теорема о повторении опытов. Примеры.
- •1 0. Распределение Пуассона. Простейший поток событий. Формула Пуассона для потока событий. Вероятность появления хотя бы одного события.
- •11. Непрерывная случайная величина. Функция распределения и плотность вероятности. Их свойства.
- •12. Числовые характеристики непрерывной св. М(х), d(X), σx, их свойства.
- •13. Равномерный закон распределения.
- •15. Показательный закон распределения вероятностей. Определение, графики плотности вероятности и функции распределения. Основные характеристики.
- •17. Числовые характеристики системы двух св. Корреляционный момент. Коэффицент корреляции.
- •18. Теоремы о числовых хар-ках, их применение.
- •19. Предельные теоремы теории вероятностей. Неравенство Чебышева, неравенство Маркова. Закон Больших чисел (теорема Чебышева).
- •21. Центральная предельная теорема и особая роль нормального распределения. Формулы для практического применения теории вероятностей (интегральная теорема Муавра-Лапласа).
- •22. Основные понятия математич. Статистики. Простая статистическая совокупность. Статистическая функция распределения. Статистический ряд. Полигон. Гистограмма.
- •23. Точечные оценки параметров распределения. Требования, предъявляемые к точечным оценкам. Оценки для м(х), d(X) и сдо.
- •24. Метод моментов для получения точечных оценок. Выравнивание статистических рядов.
- •25. Интервальные оценки. Доверительные интервалы.
- •26. Статистические гипотезы. Основные понятия (основная и альтернативная гипотеза, критическая область, доверительная вероятность). Проверка статистических гипотез.
- •27. Проверка статистических гипотез. Гипотеза о неизвестном среднем при известной дисперсии на примере нормального распределения.
- •Проверка статистической гипотезы о матожидании нормального распределения при известной дисперсии
- •28. Важнейшие распределения в математической статистике: распределение хи-квадрат, распределение Стьюдента.
- •29. Критерии согласия. Критерий согласия Пирсона
17. Числовые характеристики системы двух св. Корреляционный момент. Коэффицент корреляции.
Математическое ожидание двумерных СВ:
Пусть (X,Y) – двумерная СВ, тогда M(X,Y)=(M(X), M(Y)), т.е. матожидание случайного вектора – это вектор из матожиданий компонент вектора.
Если (X,Y) - дискретный случайный вектор с распределением (таблица в вопр. 16), то матожидания вычисляются по формулам:
Для непрерывных СВ:
Если p(x,y) – совместная плотность распределения непрерывной двумерной СВ
Дисперсия двумерных СВ:
Корни квадратные из дисперсии называют средними квадратичными отклонениями
Начальным моментом порядка k,s системы (х,у) называется матожидание произведения xk * ys αks= M[ k * s]
Центральным моментом порядка k,s системы (х,у) называется матожидание произведения центрированных СВ
и – центрированные величины; mх – матожидание
Начальный и центральный моменты для дискретных СВ:
, где pij = P(X=xi ; Y=yj)
Замечание:
k+s = 1 (1;0) => α1;0 = M[xy0] = M[x] = mx
(0;1) => α0;1 = M[y] = M[y] = my
k+s = 2 (2;0) => µ2;0 = M[ 0] = M[ 2] = D(X)
(1;1) => µ0;1 = M[ * ] = kxy
(0;2) => µ0;2 = M[ 2] = D(Y)
Корреляционный момент kxy = cov(x,y), хар-т рассеивание СВ и связь между ними (величина размерная) kxy = M[x;y] – m[x]*m[y]
Коэффициент корреляции (величина безразмерная): Rxy =
Если x,y – независимы, то Rx,y = 0.
Величины, для которых Rx,y = 0 – некоррелированные.
Коэффициент корреляции характеризует линейную зависимость, т.е. при росте одной СВ другая имеет тенденцию изменяться по линейному закону.
Если х и у связаны точной (функциональной) зависимостью, то У=аХ+b. Если это так, то если а>0, Rxy =1 и а<0, Rxy= -1
В остальных случаях (нелинейно зависимые) – комби. (-1;1)
18. Теоремы о числовых хар-ках, их применение.
Пусть даны 2 СВ Х и У и известны M[x] и M[y],σx и σy
Матожидание СВ С равно самой этой величине. M[C] = C
Пусть Х – дискретная, (х=С, p=1), тогда M[C] = xp = 1*C = C
Дисперсия неслучайной величины С=0
D[C] = M[(C – M[C])2] = 0
Вынесение неслучайной величины за знак мат. ожидания
M[CX] = C*M[X]
Вынесение неслучайной величины за знак дисперсии и СДО
D[CX] = C2*D[X] σ[CX] = |C|*σ[X]
Матожидание суммы случайных величин (независимо от того, зависимы они или нет) M[X+Y] = M[X] + M[Y]
Матожидание линейной функции
M[aХ + bY + c] = aM[X] + bM[Y] + c
Дисперсия суммы случайных величин
D[X+Y] = D[X] + D[Y] – 2kxy
Если х,у некоррелированы, то kxy=0, тогда
D[X+Y] = D[X] + D[Y]
Дисперсия линейной функции
D[aX + bY + c] = a2D[X] + b2D[Y] – 2ab* kxy
kxy = M[XY] – m[x]*m[y] – корреляционный момент
Матожидание произведения СВ
M[XY] = M[X] * M[Y] + kxy
Дисперсия произведения независимых СВ
D[XY] = D[X] * D[Y] + M[X]2 * D[Y] + M[Y]2 * D[X]
Для центрированных (M[X]=M[Y]=0) – D[ ] = D[ ] * D[ ]
Применение теорем:
1) Доказать, что СВ связаны линейной функциональной зависимостью Y=aX+b
2) Определить М(Х) числа появлений события при нескольких опытах
3) Найти дисперсию числа появлений события при нескольких независимых и зависимых опытах
4) Средний расход средств до достижения числа опытов до k-го появления события
(M(X)=ΣM(Xi)=k/p, D(X)=ΣD(Xi)=kq/p2, σ=(√kq)/p