- •1. Случайный эксперимент. Пространство элементарных событий. Случайные события и операции над ними.
- •Свойства операций над событиями
- •2. Классическое определение вероятности. Урновая схема. Пример.
- •3. Геометрическое определение вероятности. Пример.
- •4. Аксиоматическое определение вероятности. Вероятностное пространство. Свойства вероятности.
- •5. Условная вероятность и ее свойства. Правило и теорема умножения вероятностей.
- •6. Независимость событий. Свойства независимых событий. Независимость в совокупности.
- •7. Формулы полной вероятности и Байеса. Пример.
- •8. Схема независимых испытаний Бернулли. Наивероятнейшее число успехов.
- •9. Понятие случайной величины (св). Функция распределения св и ее свойства.
- •10. Дискретные св. Закон распределения дискретной св.
- •11. Важнейшие дискретные св.
- •12. Непрерывные св. Плотность вероятностей и ее свойства.
- •13. Важнейшие непрерывные св.
- •14. Математическое ожидание (мо) дискретных и непрерывных св.
- •15. Основная теорема о мо. Свойства мо.
- •16. Моменты высших порядков. Дисперсия и среднеквадратическое отклонение. Свойства дисперсии.
- •17. Числовые характеристики важнейших св.
- •18. Случайные векторы. Функция распределения случайного вектора и ее свойства.
- •19. Дискретные случайные векторы. Закон распределения дискретного случайного вектора.
- •20. Непрерывные случайные векторы. Плотность вероятностей случайного вектора и ее свойства.
- •21.Равномерное распределение в области на плоскости. Равномерные распределения в прямоугольнике и в круге.
- •22. Независимость случайных величин. Условия независимости. Независимость в совокупности.
- •23.Условные законы распределения. Условная плотность вероятностей и ее свойства. Условные числовые характеристики.
- •24.Числовые характеристики случайных векторов. Корреляционная матрица и ее свойства. Понятие о моментах случайных векторов.
- •25. Теоремы о числовых характеристиках.
- •26. Некоррелированные св. Связь между некоррелированностью и независимостью. Пример.
- •27. Коэффициент корреляции, его свойства и вероятностный смысл.
- •28. Многомерное нормальное распределение и его свойства.
- •29. Функции от св и их законы распределения. Функции случайных аргументов
- •Функции от случайных величин
- •Функции от случайных векторов
- •30. Закон распределения суммы св. Композиция (свертка) законов распределения. Пример.
- •31. Неравенство Чебышева. Виды сходимости последовательностей св и связь между ними.
- •Неравенство Чебышева
- •Виды сходимости последовательностей случайных величин и связь между ними
- •32. Закон больших чисел (збч) для последовательностей св. Теоремы Маркова и Чебышева.
- •33. Збч для последовательностей независимых одинаково распределенных св. Задача об измерениях. Теорема Бернулли и ее применение.
- •34. Характеристическая функция св и ее свойства.
- •Свойства характеристических функций
- •35.Характеристические функции важнейших св. Устойчивость нормального закона распределения.
- •Характеристические функции случайных векторов
- •36. Сходимость распределений (слабая сходимость) и ее связь со сходимостью по вероятности. Теорема непрерывности.
- •37.Центральная предельная теорема (цпт) для независимых одинаково распределенных св. Интегральная теорема Муавра-Лапласа.
- •38.Цпт для независимых разнораспределенных св: теоремы Линдеберга и Ляпунова. Смысл условия Линдеберга. Асимптотическая нормальность.
- •39. Теорема Хинчина. Понятие об усиленном збч.
- •40. Статистическая модель. Генеральная совокупность (гс), выборка, объем выборки. Простейшие способы представления статистических данных.
- •41. Эмпирическая функция распределения и ее свойства.
- •42. Гистограмма и полигон частот.
- •43.Выборочные (эмпирические) числовые характеристики. Выборочное среднее и выборочная дисперсия.
- •44.Точечные оценки неизвестных параметров распределений. Требования, предъявляемые к точечным оценкам.
- •Точечные оценки. Методы нахождения точечных оценок.
- •45. Свойства выборочного среднего и выборочной дисперсии как точечных оценок мо и дисперсии соответственно.
- •46. Метод моментов получения точечных оценок. Свойства оценок, найденных по методу моментов. Пример. Метод моментов.
- •47. Метод максимального правдоподобия. Свойства оценок максимального правдоподобия. Пример.
- •48. Интервальные оценки неизвестных параметров распределений. Доверительные интервалы (ди) для мо нормально распределенной гс (при известной и неизвестной дисперсии).
- •49. Ди для дисперсии нормально распределенной гс (при известном и неизвестном мо).
- •50. Асимптотические ди для мо и дисперсии произвольно распределенной гс.
- •51. Статистические гипотезы. Критерии согласия и их характеристики.
- •52. Критерий хи-квадрат Пирсона для проверки простой гипотезы о виде распределения.
- •53. Критерий хи-квадрат Пирсона для проверки сложной гипотезы о виде распределения.
7. Формулы полной вероятности и Байеса. Пример.
Предположим, что с данным случайным экспериментом связана полная группа событий , вероятности которыхизвестны. Нас интересует некоторое событиеА, которое может наступить одновременно с одним из . При этом условные вероятностинаступления событияА при каждом известны. Требуется определить безусловную вероятность.
Представим событие А в виде: .
В полученной сумме слагаемые являются попарно несовместными: ,. Поэтому, используя аксиому аддитивности и правило умножения вероятностей, получаем:
.
Формула называется формулой полной вероятности. В ней события называютсягипотезами (так как одно из обязательно происходит), а вероятности-вероятностями гипотез.
Пусть, по-прежнему, со случайным экспериментом связано n гипотез , вероятности которыхизвестны. Известно также, что гипотезасообщает событиюА вероятность . Предположим, что эксперимент был произведён, и в результате событиеА произошло. Этот факт приводит к переоценке вероятностей гипотез . Количественно этот вопрос решает следующая формула:.
Полученная формула называется формулой Байеса (или формулой гипотез). В ней называютсяаприорными вероятностями гипотез (они определяются a priori – до проведения опыта). Условные вероятности называютсяапостериорными вероятностями гипотез (они вычисляются a posteriori – после проведения опыта, когда стало известно, что событие А произошло).
Пример. По каналу связи с помехами передаются двоичные символы {0,1}. Вероятности искажения символов в канале (01, 10) одинаковы и равны0.2. Вероятность символа 0 на входе канала равна 0,9, а вероятность символа 1 - 0,1. На выходе канала принят сигнал, соответствующий 1. Определить вероятность того, что на вход канала подавалась также 1.
Решение.
Рассмотрим гипотезы
= {На входе канала связи символ 0},
= {На входе канала связи символ 1}.
Очевидно, и по условию, то есть событияиобразуют полную группу событий.
Пусть событие А = {На выходе канала принят символ 1}.
Тогда по условию задачи вероятность искажения символа 0 в канале суть условная вероятность , а условная вероятностьявляется вероятностью неискажения в канале символа 1. В терминах введенных обозначений требуется найти условную (апостериорную) вероятность.
Найдем вначале по формуле полной вероятности безусловную вероятность события А:
.
Затем, в соответствии с формулой Байеса, находим апостериорную вероятность :
(при априорной вероятности ).
Очевидно, что при этом апостериорная вероятность
(при априорной вероятности ).
Замечание. Таким образом, даже при приеме на выходе канала связи 1 мы отдаем предпочтение в пользу 0 на входе. Это объясняется тем, что априорная вероятность 0 на входе канала существенно больше априорной вероятности 1.
8. Схема независимых испытаний Бернулли. Наивероятнейшее число успехов.
Предположим, что некоторый эксперимент может повторяться при неизменных условиях сколько угодно раз, и эти повторения не зависят друг от друга. В этом случае говорят о проведении последовательности независимых испытаний. Независимость испытаний при этом следует понимать в том смысле, что любые события, которые могут произойти в результате, являются независимыми в совокупности.
Простейшей является последовательность независимых испытаний, в каждом из которых возможно только 2 исхода: успех – У (1) и неуспех – Н (0). Последовательность независимых испытаний с двумя исходами называется схемой независимых испытаний Бернулли.
Обозначим вероятность успеха , а вероятность неуспеха.
При проведении n независимых испытаний по схеме Бернулли пространство элементарных событий имеет вид: ,
а вероятности элементарных событий в силу независимости вычисляются по формуле:
,
то есть .
В связи с рассмотрением схемы независимых испытаний Бернулли обычно представляют интерес события ={Вn испытаниях наступило ровно m успехов} = =.
Обозначим вероятность и вычислим ее. Для любоговероятность, а общее количество исходов, содержащихся в, равно числу способов размещенияm единиц в последовательности длины n из нулей и единиц, то есть . Таким образом,.
Полученная формула называется формулой Бернулли. Она даёт выражение для вероятности наступления m успехов в n независимых испытаниях по схеме Бернулли с неизменной вероятностью успеха в одном испытании равной p и с вероятностью неуспеха равной q = 1 – p.
Поскольку события образуют полную группу событий, то . Тот же результат можно получить и на основании бинома Ньютона:
Исследуем поведение вероятностей в зависимости отm. Для этого вычислим отношение:
.
Отсюда следует, что вероятности возрастают, когда или, что эквивалентно,.
Вероятности убывают, когда или, что эквивалентно,.
И, наконец, , если.
Определение. Число успехов m = m0, при котором вероятности достигают максимума, называются наивероятнейшим числом успехов.
Из проведённых рассуждений следует, что наивероятнейшее число успехов m0 определяется из двойного неравенства: .
При этом:
Если число нецелое, то существует одно наивероятнейшее число успехов:.
Если число целое, то существует два наивероятнейших числа успехов:и.
Если число целое, то.
Вычисления по формуле Бернулли при больших m и n весьма трудоёмкие. На практике в этом случае используют асимптотические приближения для вероятностей , основанные на предельных теоремах Пуассона и Муавра-Лапласа.