- •1. Случайный эксперимент. Пространство элементарных событий. Случайные события и операции над ними.
- •2. Классическое определение вероятности (ков). Урновая схема. Пример.
- •3. Геометрическое определение вероятности. Пример.
- •4. Аксиоматическое определение вероятности. Вероятностное пространство. Свойства вероятности.
- •5. Условная вероятность и ее свойства. Правило и теорема умножения вероятностей.
- •6. Независимость событий. Свойства независимых событий. Независимость в совокупности.
- •7. Формулы полной вероятности и Байеса. Пример.
- •8. Схема независимых испытаний Бернулли. Формула Бернулли. Наивероятнейшее число успехов.
- •9. Понятие случайной величины (св). Функция распределения св и ее свойства.
- •10. Дискретные св. Закон распределения (зр) дискретной св.
- •11. Важнейшие дискретные св.
- •12. Непрерывные св. Плотность вероятностей и ее свойства.
- •13. Важнейшие непрерывные св.
- •14. Математическое ожидание дискретных и непрерывных св.
- •15. Основная теорема о мо. Свойства мо.
- •16. Моменты, дисперсия и среднеквадратическое отклонение св. Свойства дисперсии.
- •17. Числовые Характеристики важнейших св.
- •18. Случайные векторы. Функция распределения случайного вектора и ее свойства.
- •19. Дискретные случайные векторы. Закон распределения дискретного случайного вектора.
- •20. Непрерывные случайные векторы. Плотность вероятностей случайного вектора и ее свойства.
- •21. Равномерное распределение в области на плоскости. Равномерные распределения в прямоугольнике и в круге.
- •22. Независимость случайных величин. Условия независимости. Независимость в совокупности.
- •23. Условные законы распределения. Условная плотность вероятностей и ее свойства. Условные числовые характеристики.
- •24. Числовые характеристики случайных векторов. Корреляционная матрица и ее свойства. Понятие о моментах случайных векторов.
- •Понятие о моментах
- •25. Теоремы о числовых характеристиках.
- •26. Некоррелированные св. Связь между некоррелированностью и независимостью. Пример.
- •27. Коэффициент корреляции, его свойства и вероятностный смысл.
- •28. Многомерное нормальное распределение и его свойства.
- •29. Функции от св и их законы распределения.
- •Функции случайных аргументов
- •Функции от случайных величин
- •Функции от случайных векторов
- •30. Закон распределения суммы св. Композиция (свертка) законов распределения. Пример.
- •31. Неравенство Чебышева. Виды сходимости последовательностей св и связь между ними.
- •Неравенство Чебышева
- •Виды сходимости последовательностей с.В. И связи между ними.
- •32. Закон больших чисел (збч) для последовательностей св. Теоремы Маркова и Чебышева.
- •33. Збч для последовательностей независимых одинаково распределенных св. Задача об измерениях. Теорема Бернулли и ее применение.
- •34. Характеристическая функция св и ее свойства.
- •Свойства хф.
- •35. Характеристические функции важнейших св. Устойчивость нормального закона распределения.
- •Характеристические функции случайных векторов
- •36. Сходимость распределений (слабая сходимость) и ее связь со сходимостью по вероятности. Теорема непрерывности.
- •37. Центральная предельная теорема (цпт) для независимых одинаково распределенных св. Интегральная теорема Муавра-Лапласа.
- •38. Цпт для независимых разнораспределенных св: теоремы Линдеберга и Ляпунова. Смысл условия Линдеберга. Асимптотическая нормальность.
- •39. Теорема Хинчина. Понятие об усиленном збч.
- •40. Статистическая модель. Генеральная совокупность (гс), выборка, объем выборки. Простейшие способы представления статистических данных.
- •Способы представления статистических данных
- •41. Эмпирическая функция распределения и ее свойства.
- •42. Гистограмма и полигон частот.
- •Интервальный статистический ряд.
- •Вероятностный смысл гистограммы
- •43. Выборочные (эмпирические) числовые характеристики. Выборочное среднее и выборочная дисперсия.
- •44. Точечные оценки неизвестных параметров распределений. Требования, предъявляемые к точечным оценкам.
- •Точечные оценки неизвестных параметров распределения.
- •45. Свойства выборочного среднего и выборочной дисперсии как точечных оценок мо и дисперсии соответственно.
- •46. Метод моментов получения точечных оценок. Свойства оценок, найденных по методу моментов. Пример.
- •Метод моментов.
- •47. Метод максимального правдоподобия. Свойства оценок максимального правдоподобия. Пример.
- •48. Интервальные оценки неизвестных параметров распределений. Доверительные интервалы (ди) для мо нормально распределенной гс (при известной и неизвестной дисперсии).
- •49. Ди для дисперсии нормально распределенной гс (при известном и неизвестном мо).
- •50. Асимптотические ди для мо и дисперсии произвольно распределенной гс.
- •51. Критерий хи-квадрат Пирсона для проверки простой гипотезы о виде распределения.
- •52. Критерий хи-квадрат Пирсона для проверки сложной гипотезы о виде распределения.
- •53. Критерий хи-квадрат Пирсона для проверки гипотезы независимости.
32. Закон больших чисел (збч) для последовательностей св. Теоремы Маркова и Чебышева.
\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\
Опр. Говорят, что последовательность с.в. , имеющих конечное МОподчиняется закону больших чисел, если
, т.е.
Важно выделить частный случай, когда у всех с.в. одинаковы. Тогда (5) принимает вид:или.
В частности ЗБЧ имеет вид (5') для одинаково распределенных с.в.
Приведем несколько вариантов ЗБЧ, причем начнем с наиболее общего из них.
Теорема 1. (Маркова) (ЗБЧ для зависимых разнораспределенных с.в.)
Пусть – последовательность с.в., имеющих конечные МО () и дисперсии (). Тогда если выполняется условие
(условие Маркова),
то эта последовательность подчиняется ЗБЧ, т.е. имеет место (5).
Доказательство:
Пусть , тогда по свойствам МО и дисперсии:,.
В силу неравенства Чебышева (2) имеем: ,, но(в силу условия Маркова). Поэтому, переходя в обеих частях последнего неравенства к пределу приполучаем, что, что и означает (5).
Теорема 2. (Теорема Чебышева) (ЗБЧ для некоррелированных разнораспределенных с.в.)
Пусть – последовательность попарно некоррелированных (в частности, попарно независимых) с.в., имеющих конечные МО () и равномерно ограниченные дисперсии (). Тогда эта последовательность с.в. подчиняется ЗБЧ (5).
Доказательство:
Пусть , тогда по свойствам МО и дисперсии:,.
В силу неравенства Чебышева (2): . Поскольку правая часть стремится к нулю при, то и, т.е., что и означает (5).
Замечание: Теорема 2 Чебышева является фактически следствием теоремы 1 Маркова, поскольку из равномерной ограниченности дисперсии следует условие Маркова, что и было продемонстрировано при доказательстве. Следует отметить, что теорема 2 Чебышева справедлива и при более слабом условии, чем равномерная ограниченность дисперсии:.
\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\
33. Збч для последовательностей независимых одинаково распределенных св. Задача об измерениях. Теорема Бернулли и ее применение.
\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\
Теорема 3. (ЗБЧ для независимых одинаково распределенных с.в.)
Пусть – последовательность независимых одинаково распределенных с.в., имеющих конечные МО и дисперсии. Тогда эта последовательность подчиняется ЗБЧ, т.е.
или
Доказательство:
Пусть , тогдаи по свойствам дисперсии:.
В силу неравенства Чебышева (2): . Поскольку, то и, т.е., что и означает (5).
Замечание. Утверждение теоремы 3 остается справедливым и без предположения о конечности дисперсии с.в.. Это составляет утверждение теоремы Хинчина.
Классическим примером применения ЗБЧ на практике является следующая задача об измерениях условных помех.
Предположим, что производится измерения некоторой физической величины . В действительности результат измерения есть значение с.в., где– случайная погрешность измерения, имеющая.
Для повышения точности измерения величины на практике всегда поступают следующим образом: измерение производят как можно в большем количестве в неизменяемых условиях и независимо друг от друга. При этом получают результаты. В качестве приближенного значения величиныпринимают среднее арифметическое всех результатов измерения.(6).
Законы больших чисел позволяют ответить на следующие вопросы:
1) указать точный смысл приближенного равенства (6)
2) определить точность приближенного равенства (6)
3) указать условия, при которых приближенное равенство (6) имеет место.
1) наблюдений над с.в.эквивалентно одному наблюдению над с.в., являющимися независимыми и распределенными так же, как с.в..,
Из теоремы 3 следует , а это значит, что для больших:
может быть сделано сколь угодно близко к 1. Это и есть приближенное равенство (6). Т.е. (6) является практически достоверным но не абсолютным.
2) Точность равенства (6) характеризуется .
Из теоремы 3 следует, что , которая оказывается враз выше чем точность одного измерения, равного.
3) В соответствие с теоремой 3 с.в. должны быть независимы и одинаково распределены, поэтому на практике и следует стремиться к соблюдению этих условий измерения.
Теорема 4. (Теорема Бернулли).
Если в последовательности независимых испытаний, проводимых по схеме Бернулли вероятность наступления события является неизменной и равной, то:
, гденазывается относительной частотой появления, т.е..
Доказательство:
– число появленийв-ом испытании.
С.в. принимает 2 значения: 0 или 1.,.
Последовательность с.в. есть последовательность независимых, одинаково распределенных с.в. При этом:,. В силу теоремы 3, что и требовалось доказать.
Теорема Бернулли является обоснованием статистического определения вероятности, в соответствии с которым за неизвестную вероятность событияпринимается его известная частотапоявления событиявнезависимых испытаниях.
.
Теорема Бернулли утверждает, что действительно, при больших верность неравенствадля сколь угодно малогопри достаточно большомможет быть сделано сколь угодно близко к единице.
Замечание:
0 |
1 | |
Из этого представления с.в. свойства МО и дисперсии и того,следует, что– другой способ нахождения ЧХ наряду с их непогрешимым подсчетом.
\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\