Шпоры тервер
.doc
1. Случайные события. Случайные события -- события, которые при одних и тех же условиях могут произойти,а могут и непроизойти. Испытание – это создание и осуществление этих неопределенных условий. а)Есть и такие события, которые в данных условиях произойти не могут. Их называют невозможными событиями. Если же событие при данных условиях обязательно произойдет, то его называют достоверным.. в)зависимыми или независимыми;(Если появление одного события влечет за собой появление другого, то говорят, что второе событие зависит от первого.) в) равновероятными или неравновероятными;(Например, в случае бросания игральной кости события выпадения каждой цифры равновероятны)
|
2.Класс-кое определение вероятности. Св-ва вер-ти. Вероятностью события А называют отношение числа благоприятствующих этому событию исходов к общему числу всех равновозможных несовместных элементарных исходов, образующих полную группу. Итак, вероятность события А определяется формулой Р (A) = m / n, где m - число элементарных исходов, благоприятствующих A; n - число всех возможных элементарных исходов испытания. С в -в о 1. Вероятность достоверного события равна единице.Действительно, если событие достоверно, то каждый элементарный исход испытания благоприятствует событию. В этом случае m = n, следовательно,Р (A) = m / n = n / n = 1. С в -в о 2. Вероятность невозможного события равна нулю. Если событие невозможно, то ни один из элементарных исходов испытания не благоприятствует событию. В этом случае m = 0, следовательно,Р (А) = m / n = 0 / n = 0 .С в -в о 3. Вероятность случайного события есть положительное число, заключенное между нулем и единицей. Действительно, случайному событию благоприятствует лишь часть из общего числа элементарных исходов испытания. В этом случае 0 < m < n, значит, 0 < m / n < 1, следовательно, 0 < Р (А) < 1
|
3. Алгебра событий. Формулы: 1)А+В=В+А – перестановочный закон сложения. 2) АВ=ВА – перестановочный закон умножения 3)(А+В)+С=А+(В+С) – сочет-й закон 4)(АВ)С+А(ВС) - сочет закон умнож 5)А(В+С)=АВ+АС – распред-й закон Однако у событий есть свои св-ва отличных от св-в чисел. У событий справедлив еще один закон: в распределительном законе поменяем «+» и «*» местами – получится: А+ВС=(А+В)(А+С) Убедиться в верности равенства помогают диаграммы Эйлера-Венна. а) А(В+С)=АВ+АС
б) А+ВС=(А+В)(А+С)
Св-ва, связан с достов-ми и невозможн событиями 1)А0=0 2)А+0=А 3)АЕ=Е 4)А+Е=Е
С-ва, касаемые противоположных событий. 1)А+ Ă=Е 2)А* Ă=0 Законы де Моргана 1) А+В=АВ 2)АВ=А+В
|
||||||||||
4. Основные формулы комбинаторики. Комбинаторика – раздел математики, изуч-ий вопросы о том, сколько комбинаций определенного типа можно составить из разных элементов. - Размещениями из n данных элементов по m элементов (m≤n) назыв-ся комбинация, составленные из данных n элементов по m элементов, отличающиеся либо самими элементами либо порядком элементов. Для размещения важно в каком порядке состоят элементы, т.е аb и ba разные варианты. Число различных размещений из n элем. по m определ. По формуле: Amn = n (n - 1)(n - 2) ... (n - m + 1). - Перестановками из n различных элементов называется размещение из этих n элементов по n Перестановки – частные случаи размещения при m=n Т.о. перестановки вычесляются по фор-ле: Рn= n(n-1)*…*3*2*1=n! Сочетаниями из n разл-х элементов по m называется комбинация, составленные из этих n элементов по m, отличающиеся хотябы 1м элементом. С mn = n! / (m! (n - m)!)
|
5. Сумма событий. Вероятность суммы несовместимых событий. Суммой А+В двух событий А и В называют событие, состоящее в том, что произошло хотя бы одно из событий А и В. Суммой нескольких событий, соответ-ственно, называется событие, заключающееся в том, что произошло хотя бы одно из этих событий. Теорема Р(А+В)=Р(А)+Р(В)-Р(АВ) События А и В называются несовместимыми если они не могут наблюдаться в результате 1 испытания, т.е у них нет общих элементарных исходов, т.е АВ=0. Следствие 1 Р(А+В)=Р(А)+Р(В), если А и В несовместные события. Следует из т-мы и из того, что Р(0)=0 (Теорема: Вероятность суммы двух несовместных событий АиВ равна сумме верояностей этих событий. Р(А+В)=Р(А)+Р(В), А,В – несовместимые. Следствие1: Данная теорема справедлива для любого конечного числа попарно несовместимых событий. Р(А+B+C+D)=P(A)+P(B)+P(C)+P(D), А,B,C,D- несов. Следствие 2 Сумма вероятностей противоположных событий А и Ă равна 1.)
Следствие 2 Если событие А1, А2,…., Аn попарно несовместны, то Р(А1+А2+…+Аn)=Р(А1)+Р(А2)+..+Р(Аn) Два события наз-ся несовместными, если появление одного из них исключает появление другово.
|
6. Условная вероятность. Вероятность произведения зависимых событий. Два события наз-ся зависимыми если вероятность появления одного из них зависит от того, появилось другое событие или нет. В противном случае событие А иB независимые. Пусть А и B – зависимые события. Условной вероятностью РА(B) события B наз-ся вероятность события В найденная в предположении, что событие А уже наступило. Если события А и В независимы то РА(B)=Р(В) Теорема: Вероятность произведения двух зависимых событий А и В равна произведению вероятностей одного из них на условную вероятность другого в предположении что 1е событие уже наступило. Р(АВ)=Р(А)* РА(B), А,В – зависимы. (*) Замечание: Применив формулу (*) к событию ВА получим: Р(ВА)=Р(В)*РВ(А) (**) т.к АВ=ВА, то сравнивая формулы (*) и (**) получаем: Р(А)* РА(B)= Р(В)*РВ(А)
|
||||||||||
7. Произведение событий. Вероятность произведения независимых событий. Произведением АВ событий А и В называется событие, состоящее в том, что произошло и событие А, и событие В. Аналогично произведением нескольких событий называется событие, заключающееся в том, что произошли все эти события. Теорема: Вероятность произведения 2х независимых событий АиВ равна произведению вероятностей этих событий. Р(АВ)=Р(А)*Р(В), А,В – независ Замечание: В случае независимых событий это формула распространяется на любое конечное число попарно независимых событий Р(АВСД)=Р(А)*Р(В)*Р(С)*Р(Д)
|
8. Теорема сложения вероятностей совместимых событий. Теорема: Вероятность суммы 2х совместных событий А иВ равна сумме вероятностей этих событий минус вероятность их произведения. Р(А+В)=Р(А)+Р(В)-Р(АВ) А,В – совмес Замечание: В случае несовместных событий, т.е когда появление одного исключает появление другого, произведение АВ=0, т.к при этом появлении и А и В невозможно. Тогда формула приобретает вид: Р(А+В)=Р(А)=Р(В) А,В – несовмес
|
9. Формула полной вероятности. ФПВ яв-ся следствием совместного применения теорем сложения и умножения вероятности. При этом предполагается, что учавствующие в задаче события А1, А2,…,Аn образует полную группу, т.е описывают абсолютно все варианты событий, к-е могут произойти в данном испытании. Например испытание бросание играл. кубика. Событие – выпадение 1,2,3,4,5,6 образует полную группу. Вероятность события А, к-е может наступить, лишь при условии появления одного из n-попарно несовмест событий В1,В2,В3..Вn образующие полную группу, равна сумме произведения вероятностей каждого из этих событий на соответствующицю условию события А. Р(А) = Р(В1)*РВ1(А)+Р(В2)*РВ2(А)+…+Р(Вn)*РВn(А)
|
||||||||||
10.Формула Байеса. Следствием формулы полной вероятности яв-ся формулы Бейсана или теорема гипотез. Она позволяет переоценить Р событий: В1,В2,В3,….Вn, принятых до испытания и называемых априорными, по результатам уже проведенного испытания, т е найти условную вероятность, где РА(Вi),где i=1,n, которое называют апостериорными. Теорема: Пусть события В1,В2,В3,..Вn образуют полную группу событий. Тогда условная вероятность события Вi, i=1,n, при условии, это событие А уже произошло, задается формулой: PA(Bi)= P(Bi)* PBi(A)/ P(B1)*PB1(A)+…..+P(Bn)*PBn(A) В зависимости формулы Байса стоит формула полной вероятности. Формула Байеса выводится из формулы произведения 2х событий Вi и А: P(Bi*A)=P(A*Bi)=P(A)*PA(Bi)-> PA(Bi)= P(Bi*A)/P(A)=P(Bi)*PBi(A)/P(A), Если теперь Р(А) представить как формула полной вероятности, то получим формулу Байеса.
|
11. Независимые испытания. Формула Бернулли. Несколько испытаний называются независимыми, если их исход представляются собой независимые события. Т.е. если проводится несколько испытаний, последовательность испытаний, причем вероятность наступления некоторого события А в каждом испытании не зависит от исходов других испытаний, то такие испытания наз-ся независимыми. Последовательность n независимых испытаний, в каждом из которых может произойти некоторое событие А ( называют успехом) с вероятностью Р (А)=р или противоположное ему событие а( называется неудача) с вероятностью Р(а)= q=1-p, называется схемой Бернулли. Теорема: Если производится n независимых испытаний, в каждом из которых вероятность появления событий А равна р, а вероятность его не появление равна q событие a=1-p, то вероятность того, что событие А произойдет m раз, определится по формуле: Pn(m)=Cmn * pm*qn-m m=1,2,….n
|
12. Случайные величины. Математическое ожидание дискретной случайной величины. Случайной величиной наз=ся переменная величина, которая зависит от исхода испытаний случайно принимает одно значение из множества возможных. Случайная величина, которая принимает значение, которое можно записать в виде конечной или бесконечной последовательности наз-ся дискретной. Случайная величина принимающая значение из некоторого числового промежутка наз-ся непрерывной. Пусть дана случ величина Х. Она жет принимать значения х1,х2,х3,х4….хn с вероятностью р1,р2,р3, …рn. Перечень всех возможных значений случайной величины и их вероятностей наз-ся Законом распределения случайной величины. Обычно задается с помощью таблица. Пусть случайная велична Х задана законом распределения
Мат ожиданием дискретной случайной величины х наз-ся сумма произведений всех возможных значений случайной величины на соответствующие вероятность . М(х)=х1*р1+х2*р2+….+хn*pn Мат ожидания это числовая характеристика случайной величины обозначающее ее среднее значение.
|
||||||||||
13. Свойства математического ожидания дискретной случайной величины. 1.Мо постоянной случайной величины равно самой этой величине М(С)=С с-const. Постоянную величину С можно рассматривать как дискретную случайную величину принимающую только одно значение С с вероятностью равной 1, тогда М(С)=С*1=С 2.Постоянный множитель можно выносить за знаком мат ожидания М(С*Х)=С*М(Х), с-const 3.МО суммы случайных величин равно сумме их мат ожидания М(Х+У)=М(Х)+М(У) Определение: Случайные величины Х и У наз-ся независимыми, если закон распределения каждый из них не зависят от того какое возможное значение приняла другая величина. 4.МО произведения независимых случайных величин равно произведению их мат ожиданию. М(Х*У)= М(Х)*М(У) Х,У- независимы 5.МО разности равно разности МО М(Х-У)=М(Х)-М(У)
|
14. Отклонение случайной величины МО случайных величины не дает полной характеристики распределения случайной величины. Отклонением случайных величин Х от её МО называется величина Х- М(Х). При построении закона распределения отклонение случайной величины вероятности каждого значения отклонения остаются теми же. Т о закон распределения отклонения: х Х1-М(Х) Х2-М(Х) Х3-М(Х) Хn-М(Х) р Р1 Р2 Р3 Pn
при этом МО отклонения: М(Х-М(Х))= М(Х)-М/М(Х)= М(Х)-М(Х)=0 Теорема: МО отклонение равно 0 М(Х-М(Х))=0 из теоремы следует, что с помощью отклонения невозможно определить степень разброса возможны от её мат ожидания т.е. степень рассеяния. Отсюда возникает необходимость введения числовой характеристики обозначающие такую степень рассеяние.
|
15. Дисперсия дискретной случайной величины. Дисперсией Д(х) дискретной случайной величины Х наз-ся мат ожидания квадрата отклонения случайной величины от её МО: Д(Х)= М[(Х-М(Х))2]
|
||||||||||
16. Свойства дисперсии дискретной случайной величины. Среднее квадратическое отклонение. 1.Дисперсия постоянной сβ равно 0: D(C)= 0 2.Другая формула для вычисления дисперсии: Д(С)=М(х)2-М2(Х) Из этого свойства доказательство свойства 1. Д(С)=М(С2)-М2(С)=С2-М(С)*М(С)=С2-С*С=0 3.Постоянный множитель можно выносить за знак дисперсии в квадрате Д(С*Х)=С2*Д(Х) можно Д(С*Х)= М((СХ)2) - М2(С*Х)= М(СХ-СХ)-М(СХ)*М(СХ)=С*С*М(Х2)-С2М(Х)*М(Х)=С2(М(Х2))-М2(Х))=С2*Д(Х) 4.Дисперсия суммы равна сумме дисперсии Д(Х+У)=Д(Х)+Д(У) 5.Дисперсия разности равна суммой дисперсии Д(Х-У)=Д(Х)+Д(У) Среднее квадратичное отклонение СКО дискретной сβ называется корень квадрата из её дисперсии. Ведение СКО объясняется тем, то дисперсия измеряется в квадрати-х единицах отношению размеренности самой сβизмеряется в метрах, то дисперсия в мерах квадратных. В тех случаях, когда нужно определить степень рассеяния сβ в той же размерности, что и сама величина, используют СКО.
|
17. Непрерывные случайные величины. Функция распределения случайной величины, ее свойства (свойства 1-3). Для непрерывной случайной величины в отличии дискретной нельзя построить таблицу распределения. Пусть Х непрерывная случайная величина с возможными значениям из некоторого интервала, х-некоторо действительное число. Под выражением Х<х понимается событие вероятность этого события Р(Х<х) есть некоторая функция от переменной х: F(x)=F(X < x) Интегральной функцией распределение непрерывной случайной величины Х наз-ся функцией F(x) равная вероятность того, что х приняло значение <x F(x)=F(X < x) Аналогичным образом определяется функция распределения и для дискретной случайной величины. Свойство функции распределения 1.0<=F(x)<=1 из того что F(x) – это вероятность 2.F(x) – не убывающая функция, т.е. если х1<х2, то F(x1)<F(x2) 3.Вероятность попадания случайной величины Х в полуинтрвале [a,b) равна разности между значениями функции распределения в т a и в.
|
18. Функция распределения случайной величины, ее свойства (свойства 4-6). 4.Р(а<=x<=b)= F(a)-F(b) Вероятность того, что непрерывная случайная величина Х примет какое-либо заданное значение равно 0 Р(Х=Х1)=0 5.Вероятность попадания непрерывности случайной величины в интервале, полуинтервале, сегменте с одними и теме же концами одинаковы Р(а<=x<=b)=Р(а<x<=b)=Р(а<=x<b)=Р(а<x<b) 6.Если возможные значения непрерывной случайной величины Х принадлежит (а,в) то F(x)=0 при х<=a F(x)=1 при х>=и Следствие если возможные значения непрерывной случайной величины расположены на всей числовой основе, то справедливы следующие соотношения (Формула)
|
||||||||||
19. Непрерывные случайные величины. Дифференциальная функция распределения (плотность вероятности). Диф фун-ция распределения непрерывной случайной величины Х или её вероятности наз-ся функции f(x) равная производной интегральной функции распределения f(x)= F’(x) Теорема. Вероятность попадания непрерывной случайной величины Х в интеграле [a,b] равна определ. Интегралу от дифф. Функции распределения величины Х взятому от а до и b. P(a<=x<=b) = Т.о. геометрические вероятности P(a<=x<=b) представляет собой площадью криволененой трапеци ограниченной графиком плотности вероятности f(x) и отрезками прямых y=0, x=a, x=b. Елси f(x) – четная функция и концы интервала симметричны относительно начала координат то По основ. Формуле для нахождения диф функции распределения и заменяя на
связь между интервалами функциями распределения F(x) и плотностью вероятности f(x). Это формула позволяет F(x) по заданной плотности вер-ти f(x). Из этой формулы и того же следствия следует.
|
20. Математическое ожидание, дисперсия, среднее квадратическое отклонение непрерывной случайной величины. МО М(Х) непрерывной сβ х с плотностью вероятности f(x ) наз-ся величина несобственного интеграла ( если он сходится)
Дисперсия Д(х) непрерывной сβ х Мо которого М(х)=а, а плотностью вероятности f(x) наз-ся величина несобственного интеграла.
МО и дисперсия непрерывной случайной величины имеет те же свойства, что и МО и дисперсия дискретной сβ. Среднее квадратичное отклонение непрерывной сβ δ(x) опеределяется аналогично как и для дискретной сβ:
|
|