- •2. Алгебра событий. Основные операции над событиями. Теорема сложения вероятностей. Следствия.
- •3. Условная вероятность. Теорема умножения вероятностей. Следствия. Независимость событий.
- •4. Использование формул комбинаторики при непосредственном вычислении вероятностей событий.
- •5. Формула полной вероятности и Байеса.
- •6. Повторение независимых испытаний. Схема Бернулли. Формула Бернулли.
- •7. Дискретная случайная величина. Ряд распределения. Функция распределения.
- •8. Числовые характеристики дискретной св.
- •3. Среднее квадратическое отклонение
- •9. Биномиальное распределение. Частная теорема о повторении опытов. Примеры.
- •1 0. Распределение Пуассона. Простейший поток событий. Формула Пуассона для потока событий. Вероятность появления хотя бы одного события.
- •11. Непрерывная случайная величина. Функция распределения и плотность вероятности. Их свойства.
- •12. Числовые характеристики непрерывной св. М(х), d(X), σx, их свойства.
- •13. Равномерный закон распределения.
- •15. Показательный закон распределения вероятностей. Определение, графики плотности вероятности и функции распределения. Основные характеристики.
- •17. Числовые характеристики системы двух св. Корреляционный момент. Коэффицент корреляции.
- •18. Теоремы о числовых хар-ках, их применение.
- •19. Предельные теоремы теории вероятностей. Неравенство Чебышева, неравенство Маркова. Закон Больших чисел (теорема Чебышева).
- •21. Центральная предельная теорема и особая роль нормального распределения. Формулы для практического применения теории вероятностей (интегральная теорема Муавра-Лапласа).
- •22. Основные понятия математич. Статистики. Простая статистическая совокупность. Статистическая функция распределения. Статистический ряд. Полигон. Гистограмма.
- •23. Точечные оценки параметров распределения. Требования, предъявляемые к точечным оценкам. Оценки для м(х), d(X) и сдо.
- •24. Метод моментов для получения точечных оценок. Выравнивание статистических рядов.
- •25. Интервальные оценки. Доверительные интервалы.
- •26. Статистические гипотезы. Основные понятия (основная и альтернативная гипотеза, критическая область, доверительная вероятность). Проверка статистических гипотез.
- •27. Проверка статистических гипотез. Гипотеза о неизвестном среднем при известной дисперсии на примере нормального распределения.
- •Проверка статистической гипотезы о матожидании нормального распределения при известной дисперсии
- •28. Важнейшие распределения в математической статистике: распределение хи-квадрат, распределение Стьюдента.
- •29. Критерии согласия. Критерий согласия Пирсона
15. Показательный закон распределения вероятностей. Определение, графики плотности вероятности и функции распределения. Основные характеристики.
x~E(𝜆) – абсолютное непрерывное распределение с параметром 𝜆>0 и плотностью (левый график):
M(X) = σх = 1/𝜆 Мо = 0 Sk = 2
D(X) = 1/𝜆2 Ме = (ln2)/𝜆 Ex = 6
Показательный закон распределения играет большую роль в теориях массового обслуживания и надежности. Так, например, интервал времени Т между двумя соседними событиями в простейшем потоке имеет показательное распределение с параметром 𝜆 – интенсивностью потока.
Теория массового обслуживания - раздел математики, изучающий системы, предназначенные для обслуживания массового потока требований случайного характера.
Т. надежности – наука, изучающая закономерности распред-я отказов техустройств, причины и модели их возн-я.
Особ. св-во: если промежуток времени Т, распределённый по показательному закону, уже длится некоторое время t, то это никак не влияет на закон распределения оставшейся части Т1=Т-t промежутка, т. е. закон распределения Т1 остаётся таким же, как и всего промежутка Т.
16. Понятие о системе случайных величин. Геометрическая интерпретация. Дискретный двумерный вектор. Совместные и частные законы распределения случайного вектора. Функция распределения, свойства. Условные законы распределения. Зависимые и независимые СВ.
Наряду с одномерными СВ рассматриваются многомерные СВ. Очень часто результат испытания характеризуется не одной СВ, а некоторой системой СВ, которую также называют многомерной СВ или случайным вектором. Например, точность попадания снаряда – координаты х и у – пример двумерной СВ.
Геометрическая интерпретация СВ:
1) Система двух СВ может изображаться такой на плоскости Оху, х – абсцисса, у – ордината
2) Систему двух СВ можно рассматривать как вектор на плоскости ху. Если ζ и η – дискретные СВ – вектор дискретный, если ζ и η – непрерывные, вектор непрерывный.
Дискретный двумерный вектор – геом. изображение СВ на плоск-ти Оху, Х и Y – составляющие этого вектора.
ζ |
η |
||
y1 |
… |
ym |
|
х1 |
p11 |
|
p1m |
… |
|
|
|
хm |
pn1 |
|
pnm |
С оотношение между возможными значениями случайного вектора и их вероятностям называется совместным законом распределения. Совместный закон распред-я дискретных СВ задается набором вероятностей pij одновременного осуществления событий pij=p(ζ=xi; η=yi) и представляется в виде таблицы:
Поскольку события {ζ=xi; η=yi} образуют полную группу, то получается:
Чтобы по таблице распределения найти вероятность того, что одномерная СВ примет определенное значение, надо просуммировать вероятности pij из соответствующей этому значению строки (столбца) данной таблицы.
Частным законом СВ ζ называется набор вероятностей событий {ζ=x}. Если задан совместный закон распределения, то частный получается следующим образом:
(суммируется строка) (суммируется столбец)
Функция распределения n-мерной СВ:
F(x1, x2, …, xn) = P(X1<x1, X2<x2, …, Xn<xn)
В двумерном случае для СВ (X,Y): F(x, y) = P(X< x, Y<y)
Г еометрически функция распределения F(x,y) означает вероятность попадания случайной точки (X,Y) в заштрихованную область – бесконечный квадрат, лежащий левее и ниже точки М(x,y). Правая и верхняя границы области не включаются – это означает, что функция распределения непрерывна слева по каждому из аргументов.
В случае дискретной СВ ее функция распределения определяется по формуле:
(суммирование вер-тей распространяется на все i, для кот. xi<x, и все j, для кот. yj<y).
Свойства функции распределения:
F(x,y) не убывающая функция обоих своих аргументов, т.е. при x1<x2: F(x1, y)≤F(x2, y) и при y1<y2: F(x, y1)≤F(x, y2).
Повсюду на -∞ функция равна 0: F(-∞,y)=0, F(x,-∞)=0
При одном из аргументов, равном +∞, функция распределения (совместный закон распределения) превращается в функцию распределения СВ, соответствующей другому аргументу (частный з. распред-я):
F(+∞,y) = F2(y) F(х,+∞) = F1(x)
F(+∞,+∞)=1 5. 0≤F(x, y)≤1
Если зафиксировать значение одного из аргументов, например, положить Y=yj, то полученное распределение СВ Х называется условным распределением Х при условии Y=yj. Вероятности pj(хi) этого распределения будут условными вероятностями события Х=хi, найденными в предположении, что событие Y=yj произошло. Из определения условной вероятности:
Если величины независимы, то: F(x|y) = F1(x); f(x|y) = f1(x).
Аналогично условное распределение СВ Y при условии Х=хi задается с помощью условных вероятностей:
F(x,y) = F1(x)*F2(y) – совместный закон распределения
СВ Х и У называются независимыми, если закон распределения каждой из них не зависит от того, какое значение приняла друга. В противном случае Х и У – зависимые.
Для независимых СВ теорему умножения принимает вид: f(x,y)=f1(x)f2(y), т.е. плотность распределения системы независимых СВ равна произведению плотностей распределения отдельных величин, входящих в систему.
СВ ζ и η называются независимыми, если для любых множеств a и b выполняется усл-е: P(ζ€A ,η€B) = P(ζ€A)*P(η€B). Дискретные СВ ζ и η независимы тогда и только тогда, когда события ζ=xi и η=yj независимы для всех значений xi ,yj.