- •3. Вероятность на дискретном пространстве элементарных исходов. Классическое определение вероятности. Свойства вероятности.
- •4.Элементы комбинаторики и схемы выбора.
- •5. Геометрическая вероятность. Свойства вероятности.
- •7. Формула полной вероятности и формула Байеса.
- •8. Схема незовисимых испытаний Бернулли,формула Бернулли.Общая теорема о повторении опытов.
- •9. Общая теорема о повторении опытов. Наиболее вероятное число успехов в схеме Бернулли. Номер первого успешного испытания.
- •10. Предельные теоремы в схеме Бернулли. Локальная предельная теорема Муавра-Лапласа. Интегральная теорема Муавра-Лапласа.
- •11. Предельные теоремы в схеме Бернулли. Теорема Пуассона. Закон больших чисел в форме Бернулли.
- •12. Случайные величины и распределения вероятностей. Свойства функции распределения вероятностей.
- •13.Классификация случайных величин. Дискретные распределения (примеры основных распределений)
- •I.Дискретные распределения
- •14. .Классификация случайных величин. Абсолютно непрерывные распределения(примеры основных распределений).
- •I. . Абсолютно непрерывные распределения.
- •15.Нормальное распределение и его свойства.
- •16.Основные распределения случайных величин, применяемые в статистике.
- •17.Мат.Ожидание и его свойства.
- •18.Дисперсия и её свойства
- •20 Числовые характеристики системы двух случайных величин.Ковариация.
- •19.Мода,медиана,моменты,ассиметрия,эксцесс
- •21.Числовые характеристики системы двух случайных величин .Коэффициент корреляции.
- •22.Определение случайной последовательности . Определение сходимости по вероятности .Неравенство Маркова. Неравенство Чебышева.
- •24.Центральная предельная теорема для одинаково распределенных независимых слагаемых. (цпт)
- •25.Определение и описание случайного процесса
- •26.Статистические средние характеристики случайных процессов(сп).
- •27.Стационарные случайные процессы(сп)
- •28.Предмет мат. Статистики
- •29.Средние величины
- •30. Показатели вариации, моменты.
- •31. Статистические оценки параметров распределения. Методы нахождения оценок.
- •32.Метод моментов.
- •34.Интервальные оценки.
27.Стационарные случайные процессы(сп)
Определение 1:СП ξ(t) называется стационарным в узком смысле или строго стационарным,если его конечная функция распределения инвариантна отнасительно сдвигов всех моментов времени на одну и ту же величину τ.F(x1,t1;x2,t2;…;xn,tn)<F(x1,t1+ τ; x2,t2+ τ;…;xn,tn+ τ)(1)n=1,2,3,…Другими словами вероятносные свойства стационарного СП не зависят от начала наблюдений.
При n=1 условие стационарности дает F(x1,t1)= F(x1,t1+ τ) =>p(x1,t1)=p( x1,t1+ τ).Подогая τ=-t1 получим,что F(x1,t1)= F(x1), p(x1,t1)= p(x1) т.е.одномерное распределение стационарного процесса не зависит от времени.А адномерное распределение определяет среднее значение и дисперсии СП,следовательно для строго стационарного СП среднее и дисперсия не зависят от времени:mξ(t)=mξ=const,Дξ(t)=Дξ=const
При n=2 из условия стационарности (1) следует,что F(x1,t1;x2,t2)= F(x1,t1+ τ; x2,t2+ τ).Тоже самое справедливо для плотности распределения вероятностей пологая τ=-t1 получим,что F(x1,t1;x2,t2)= F(x1,; x2,t2-t1),т.е. двумерное распределение строго стационарное СП зависит от разности маментов времени t2-t1.С помощью двумерного распределения коррядяционная функция СП,эначит она для стационарного зависит лишь от разности моментов времени,т.е.одного аргумента: Fξ(t1,t2)= Fξ(t2-t1)
Определение 2:СП назовем стационарным в широком смысле,если его среднее значение и дисперсия не зависят от времени, коррядяционная функция зависит лишь от разности моментов времени.
28.Предмет мат. Статистики
Мат. статистика занимается занимается изучением методов сбора и обработки опытных данных для получения научных и прак. выводов.Мат.статистика(МС)-является разделом математики,очень близким к теории вероятности(ТВ),но МС решает задачи в некотором смысле противоположные задачам ТВ,при этом пользуясь теорией и методами ТВ.Например,в ТВ решалась след.задача:Задана нормальная случайная величина с плотностью распределения вероятностей
.Тогда можно решать задачи о вычислении мат.ожидания данной СВ,дисперсии или вероятности попадания в интервал (α,р),но при этом параметры а и σ2 считаются известными.Задичи МС в некотором смысле прямо противоположны этим задачам:в статистике рассматриваются данные некоторых опытов или наблюдений,тоесть известны значения,которые в результате опытов изучаемая СВ.И по этим статистическим данным можно получить свединия о параметрах,характеристиках распределения СВ или о характере самих распределений.Наример,можно поставить задачу о праверке гипотезы,что изучаемая СВ имеет нормальное распределение,или найти оценки неизвестных параметров а и σ2.В МС обьектом исследования являются nданныя эксперемента.
Вариационные ряды и их графическое изображение
Установление статистических закономерностей,присущих случайным явлениям основано на изучении статистических данных.Стат.данныя-свединья о том,какие значения принял в результате наблюдения интересующий нас признак или СВξ.Генеральной совакупностью называется совокупность обьектов или категория людей,все элементы которой подлежат изучению при статистическом анализе.Пусть исследуется успеваемость студентов 2-го курса вузов Беларуси.Тогда ген.совакупностью будут все студенты 2-го курса вузов Беларуси.На практике изучения всего набора элементов генер.совакупности оказывается затрудительным,поэтому изучают лишь часть этой совакупности.
Выборачной совакупностью или выборкой Х называют часть обьектов генеральной совакупности использумаего для исследования т.е Х={х1,х2,…,хn}.При этом отдельные значения хi называются элементами выборки или вариантами.Число Обьектов в выборке называют обьектом выборки о бозночаются обычно n.Например,если при исследовании успеваемости студентов отобраны 2000 студентов,то n=2000
Вариационным рядом называют совакупность вариантов упорядоченности по возрастанию значений.Рассмотрим часто используемыя методы предстовления стат.данных:Дискретным вариационным рядом называют таблицу,которая в 1-й строке содержит все значения(неповторяющиеся)изучаемого признака,упорядоченные по возрастанию,а во второй строке числа их повторений: n1+n2+n3+…+ns=n
Х |
х1 |
х2 |
х3 |
… |
хs |
n |
n1 |
n2 |
n3 |
… |
ns |
Интервал I=[x1,xn]разбивают на S промежутков одинаковой длины .При этом считают
что,каждый из промежутков содержит свой левый конец,но лишь последний промежуток содержит и свой правый конец.Для каждого из промежутка Ii подсчитывают число элементов выборки,попавших в него,результат представляют в виде таблицы:
Х |
[x1,x2] |
[x2,x3] |
… |
[xs,xs+1] |
n |
n1 |
n2 |
… |
ns |
Число интервалов определяется по формуле: S=1+3,322 lg n,n-число выборки тогда величина частичного интервала: =.Для графического изображения вариационных рядов используется полигон и гистограмма.Полигон-ломаная,отрезки которой последовательно соединяют точки с координатами(хi,ni)((xi,ni/n)),i=1,S.Как правило полигон служит для изображения вариационного ряда.При построении полигона для интервального ряда в качестве хi используют середины интервалов.Гистограмма-ступенчатая фигура из прямоугольников с основаниями,равными интервалу Ii=[xi,xi+1] и высотами равными плотности частоты.Сумарная площадь всех прямоугольников гистограммы равна.Гистограмма используется для предстовления интервальных вариационных рядов.Гистограмма является статистическим аналогом кривой плотности распределения вероятностейpξ(x).Эмпирической функцией распределения называется функция Fn(x)=,где-накопленая частота,равная числу выриантов меньших,чем х;n-число выборки. Эмпирическая функция распределения Fn(x) является статист. аналогом теоретической функции распределения Fξ(x)генеральной совакупности.Функция Fn(x) обладает всеми свойствами распределения:
0≤ Fn(x)≤1
Fn(x)-неубывающая функция
Fn(x)=0,при х≤хmin; Fn(x)=1, при х≥хmax
Эмпирическая функция распределения служит для оценки вида теоритической функции распределения случайного признака,полигон и гистограмма-для оценки вида теоритической плотности распределения.