- •1. Случайные события. Действия над событиями
- •2. Классическая вероятность и ее св-ва.
- •4. Формулы комбинаторики, гипергеометрическое распределение.
- •5. Условная вероятность. Независимость событий.
- •6. Формула полной вероятности. Формула Байеса.
- •7. Схема независимых испытаний Бернулли.
- •8. Предельные теоремы в схеме Бернулли.
- •9. Функция распределения вероятности и ее свойства.
- •10. Плотность распределения вероятности и ее свойства.
- •11. Математическое ожидание и его свойства.
- •12. Дисперсия и ее свойства.
- •13. Коэффициент корреляции Ковариация.
- •14. Моменты.
- •15. Основные дискретные распределения случайных величин.
- •1. Биноминальное распределение.
- •18. Двумерная функция распределения и ее свойства.
- •19. Двумерная плотность вероятности и ее свойства.
- •20. Независимость случайных величин
- •21. Условный закон распределения.
- •22. Неравенство Чебышева.
- •23.Теорема Чебышева. Теорема Бернулли.
- •24. Центральная предельная теорема.
- •25. Выборочный метод.
- •26. Эмпирическая функция распределения.
- •27. Полигон и гистограмма.
- •29. Точечное оценивание.
- •31. Доверительные интервалы.
- •32. Распределение х Стьюдента и Фишера.
- •33. Доверительные интервалы для оценки математического ожидания при известном .
- •34. Доверительные интервалы для нормального распределения при неизвестном .
- •35. Проверка статистических гипотез.
- •36. Построение критической области.
- •37. Критерий согласия Пирсона.
- •38. Вычисление теоретических частот для нормального распределения.
- •39. Cравнние дисперсий двух нормальных выборок.
- •40. Критерий Стьюдента
- •41. Дисперсионный анализ.
- •42. Парная регрессия.
- •43. Парный коэффициент корреляции.
- •44. Проверка гипотез о достоверности коэффициента корреляции.
10. Плотность распределения вероятности и ее свойства.
Плотностью распределения вероятности случайной величины называется производная функции распределения.
Свойства.
1. Для всех , так как это производная неубывающей функции.
2.
3.
4. Свойство нормировки:
Следствие.
Если все возможные значения случайной величины заключены в интервале от a до b, то
Е сли существует неотрицательная непрерывная функция
то p(y) называется плотностью распределения вероятности.
11. Математическое ожидание и его свойства.
Математическим ожиданием дискретной случайной величины с законом распределения (xi, pi) называется сумма ряда
если этот ряд сходится абсолютно.
Замечание: Если математическое ожидание равно бесконечности, то говорят, что оно не существует.
даёт среднее значение взвешенное по вероятности, если не все вероятности в некотором примере равны.
Непрерывной случайной величины с плотностью вероятности р(х) называется интеграл =
Свойства математического ожидания.
1. M(C)=C, С-const
2. M
3. Для независимых случайных величин событий и мат ожидание произведения равно произведению мат.ожиданий
M( * )=M *M
Следовательно M(a )=a M
12. Дисперсия и ее свойства.
Дисперсией называется математическое ожидание квадрата отклонения (X) от своего мат. ожидания.
DX=M(X-MX)2=M(X2-2X*MX+(MX)2)=MX2-2(MX)2+(MX)2=MX2-(MX)2, т.е.
DX=MX2-(MX)2
Дисперсия для дискретной случайной величины с законом распределения xi pi равна
Для равномерного распределения дисперсия зависит от длины отрезка. Чем больше отрезок, тем больше разбросаны значения вокруг середины отрезка.
Следовательно дисперсия характеризует рассеяние возможных значений вокруг своего математического ожидания.
Средним квадратическим отклонением называется корень квадратный из дисперсии.
Свойства дисперсии
1. D(C)=0
2. Для независимых случайных величин дисперсия суммы равна сумме дисперсий.
3. D(CX)=C2D(X)
4. D(a +b)=a2D
13. Коэффициент корреляции Ковариация.
Коэффициентом корреляции называется
Свойства
1.
2. для двух независимых с.в. коэффициент корреляции равен 0. Обратное не верно.
3.если две независимые с.в. связаны линейной функциональной зависимостью, то в этом случае p( 1, 2)=1
Если , то говорят, что 1 и 2 связаны корреляционной зависимостью, тем более тесной, чем ближе к 1.
Коэффициент корреляции служит для количественной характеристики зависимости между случайными величинами.
Если , то говорят, что зависимость близка к линейной.
Ковариацией случайных величин называется произведение отклонений случайных величин от своего мат. ожидания.
cov ( 1, 2)=M( 1, 2) - M 1* M 2
Свойства ковариации
1. cov( 1, 1)=M( 1-M 1)2=D 1
2. для независимых случайных величин коэффициент ковариации равен 0
Но обратное не верно. Т.е. можно привести пример, когда cov=0, но случайные величины зависимы.
3.
14. Моменты.
Обобщающими понятиями от матожидания и дисперсии являются моменты
Начальным моментом порядка k называется матожидание . =M =Mξ, 2=Mξ2
Центральным моментом ожидания порядка k называется матожидание в степени k отклонения случайной величины от своего математического ожидания υk=M( -M )k=0
Например второй центральный момент это дисперсия.
υ2=M ( -M )2=D =M - (M )2
Любой центральный момент можно выразить через начальный. Например третий центральный момент
υk=f(μ1, …,μk)