- •1. Случайные события. Пространство элементарных событий. Алгебра событий.
- •2. Вероятность в дискретных пространствах элементарных событий.
- •3. Классическая схема равновероятных событий.
- •4 Теорема сложения и умножения вероятности.
- •5. Формула полной вероятности и формула Байеса.
- •5.Дискретные случайные величины. Ряд распределения. Числовые характеристики.
- •7.Повторение испытаний. Схема Бернулли. Биномиальное распределение. Формула Пуассона
- •8.Распределение Пуассона
- •10.Нормальное распределение правило 3-х сигм
- •11. Системы дискретных случайных величин. Таблица распределения. Независимость. Ковариация. Механическая интерпретация. Условные распределения.
- •12.Мат. Ожидание и дисперсия суммы случайных величин. Мат ожидание произведения случайных величин.
- •13.Коэффициент корреляции как характеристика статистической связи. Некоррелированность и независимость случ. Величин.
- •13.Законы больших чисел и предельные теоремы. Теорема Бернулли, Чебышева, Муавра-Лапласа
- •15.Асимптотическое распределение среднего арифметического независимых случайных величин и относительной частоты.
12.Мат. Ожидание и дисперсия суммы случайных величин. Мат ожидание произведения случайных величин.
M[X]=mx= M[Y]=my=
(M[X], M[Y])-центр распределения.
Пусть X и Y - случ. вел. С конечными мат. ожиданиями. Мат. ожидание их суммы равно сумме их мат. ожиданий.
M[X+Y]=
M[X]+M[Y]
Пусть X и Y- взаимно независимые случ. вел с конечными мат. ожиданиями. Мат ожидание произведения XY равно произведению их мат. ожиданий.
M[XY]= =M[X]*M[Y]. Это правило распространяется на любое конечное число взаимно независимых случ. величин. Заметим, то последнее равенство для зависимых случ. величин, вообще говоря, е выполняется.
Пусть X и Y- случ. Вел с совместным распределением, задаваемым таблицей (1). Условное мат. ожидание случ. dел. X при условии, что Y принимает заданное значение
Y = yj, вычисляется по формуле: M[X/Y=yj]= >0
Дисперсия суммы случайных величин:
D[X+Y] z=X+Y =>
D[z]=M[(z-mz)2], а mz=mx+my
D[z]= M[((X-mx)+(Y-my))2]= M[(X-mx)2]+2 M[(X-mx)(Y-my)]+ M[(Y-my)2]=D[X]+2cov(X,Y)+D[Y]
Таким образом:
D[X±Y]=D[X]+D[Y]±2cov(X,Y)
Если X и Y независимые, то cov(X,Y)=0 => D[X±Y]=D[X]+D[Y]
Рассмотрим
D[aX±bY]=a2D[X]+b2D[Y]±2abcov(X,Y)
13.Коэффициент корреляции как характеристика статистической связи. Некоррелированность и независимость случ. Величин.
В качестве меры линейной зависимости между случ. величинами X и Y используют коэффициент корреляции, вычисляемый по формуле
Св-ва коэфиициента корреляции:
1.
Док-во: рассмотрим систему 2-ух случ. вел: (X,Y) Проведем нормировку (стандартизацию), т.е.
M[X]= mx D[X]=σx2 Xxнормиров= Нормированная величина – это тогда, когда
M[Y]=my D[Y]= σy2 Yyнормиров= mч=0, а σx=1
Cov(Xx,Yy)=M[{ }]*M[{ }]=
2. Если X и Y – незав. случ. вел, то , причем обратное неверно
3.Если X и Y связаны линейной функциональной зависимостью: Y=aX+b, где a,b – const , a≠0,то
Док-во:
Т.к M[Y]=aM[X]+b=amx+b, то имеем cov(X,Y)=M[(X-mx)*(Y-my)]=M[(X-mx)(aX+b-amx-b)]=M[(X-mx)a(X-mx)]=aD[X]
Вычислим дисперсию случ. вел. Y=aX+b D[Y]=D[aX+b]=a2D[X]
Таким образом, коэффициент корреляции равен:
Следовательно, =1, если a>1 и
=-1, если a<0
Т.е коэффициент корреляции является показателем линейной зависимости, но если ρxy=0. это не значит,что между ними нет никакой связи, это значит, что нет линейной зависимости.
Если коэффициент корреляции между случ. вел. X и Y равен 0, то говорят, что X и Y некоррелированны.
Некоррелированность случ. вел X и Y означает только, что между ними нет линейной зависимости и не означает статистическую независимость случ. вел X и Y.
13.Законы больших чисел и предельные теоремы. Теорема Бернулли, Чебышева, Муавра-Лапласа
Теорема Чебышева и ее обобщение.
Если дисперсии n-независимых случайных величин (X1…Xn) ограничены одной и той же постоянной, то при неограниченном увеличении числа n среднее арифметическое случайных величин сходится по вероятности к среднему арифметическому их математических ожиданий.
Док-во:
По условию: M( )= … M( )=
По первому неравенству Чебышева получаем:
поскольку P>1, то:
Вывод: при достаточно больших n выполнение рассматриваемого неравенства является событием практически достоверным, а неравенства противоположного смысла практически невозможно.
Таким образом предел по вероятности следует понимать не как категорическое отверждение, а как утверждение, вероятность которого гарантируется с вероятностью близкой к 1 (при n->∞)
Таким образом, при большом числе случайных величин практически достоверно, что их средняя случайная величина как угодна мало отличается от неслучаной – среднего математического ожидания, т.е. перестает быть случайной.
Этим заключением обоснован выбор средней арифметической в качестве меры истинного значения мат. ожидания.
Теорема Бернулли.
Пусть А – случайный исход некоторого экспериментов, P(A)=p – вероятность этого исхода. Предположим, что эксперимент повторяется n раз в неизменных условиях (т.е. вероятность Р(А)=р не изменяется при повторении экспериментов). Тогда относительная частота появление события А при n -> ∞ сходится по вероятности к р:
, или
где n – общее число исходов,
m – число благоприятных исходов,
p – вероятность появления случ. величины.
Док-во:
Пусть Причем , а .
Вычислим математическое ожидание случайной величины :
M[Xi] = 1*p + 0*q = p
И математическое ожидание их среднего арифметического:
Случайные величины , i=1…n по условию взаимно независимы, а их среднее арифметическое есть относительная частота появления события А в середине n экспериментов
Теорема Бернулли дает математическое обоснование экспериментальным результатам, в которых наблюдается устойчивость частот при увеличении числа экспериментов.
Устойчивость среднего арифметического можно объяснить тем, что случайное отклонения от среднего, неизбежные в каждом отдельном результате, в массе однородных результатов взаимно поглощаются, нивелируются, выравниваются. Вследствие этого средний результат фактически перестает быть случайным и может быть предсказан достаточно точно.
Теорема Муавра-Лапласа.
Пусть Х – случайная величина, имеющая биномиальное распределение. (q=1-p; n испытаний)
Х – число успехов в n испытаниях по схеме Бернулли
Х=0…n
Введем величину
Причем M[Xi]=1*p+0*q=p
D[Xi]=M[Xi2]-p2=p-p2=p(1-p)=pq
X = X1 + … + Xn (они все независимы и имеют одинаковое распределение)
M[X] = M[X1 + … + Xn] = M[X1] + … + M[Xn] = np
D[X] = D[X1 + … + Xn] = D[X1] + … + D[Xn] = npq
Следовательно: X
Теорема Муавра-Лапласа позволяет количественно оценить разброс события А в некотором эксперименте, который может повторятся n раз в неизменных условиях.