Добавил:
Upload Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:
ЖЕСТЬ!!!.doc
Скачиваний:
0
Добавлен:
18.09.2019
Размер:
357.38 Кб
Скачать

5. Классическое определение вероятности

 Событие – это факт, который в результате опыта может произойти или не произойти.

Вероятность - это одно из основных понятий теории вероятности.

Вероятностью события называется численная мера степени объективной возможности этого события. Вероятность события А обозначается Р (А).

Достоверным называется событие В, которое в результате опыта  непременно должно произойти:                                                 

 Р (В) = 1

Невозможным называется событие С, которое в результате опыта не может произойти:

Р (С) = 0

Вероятность любого события А заключена между нулем и единицей:

0 ≤ Р(А) ≤ 1

Полной группой событий называется несколько событий таких, что в результате опыта непременно должно произойти хотя бы одно из них. Сумма вероятностей событий, образующих полную группу, равна 1.

Несколько событий называются несовместимыми, если никакие два из них не могут появиться вместе. Пример.

Несколько событий называются равновозможными, если по условиям опыта нет оснований считать какое-либо из них более возможным, чем любое другое.

Если несколько событий: образуют полную группу, несовместны и равновозможны, то они называются случаями.

Случай называется благоприятным событию, если появление этого случая влечет за собой появление события.

Вероятность события А вычисляется по формуле:

 

,

 

где n – общее число случаев,  m – число случаев, благоприятных событию А.

Итак, что же такое вероятность?

Определение: вероятностью события А называют отношение числа благоприятствующих этому событию случаев к общему числу всех равновозможных элементарных исходов, образующих полную группу.

7. В ТЕОРИИ ВЕРОЯТНОСТЕЙ ДВА СЛУЧАЙНЫХ СОБЫТИЯ НАЗЫВАЮТСЯ независимыми, если наступление одного из них не изменяет вероятность наступления другого. Аналогично, две случайные величины называют независимыми, если значение одной из них не влияет на вероятность значений другой.

Независимые события

Будем считать, что дано фиксированное вероятностное пространство  .

Определение 1. Два события   независимы, если

Вероятность появления события A не меняет вероятности события B.

Замечание 1. В том случае, если вероятность одного события, скажем  , ненулевая, то есть  , определение независимости эквивалентно:

то есть условная вероятность события   при условии   равна безусловной вероятности события  .

Определение 2. Пусть есть семейство (конечное или бесконечное) случайных событий  , где   — произвольное индексное множество. Тогда эти события попарно независимы, если любые два события из этого семейства независимы, то есть

Определение 3. Пусть есть семейство (конечное или бесконечное) случайных событий  . Тогда эти события совместно независимы, если для любого конечного набора этих событий   верно:

Замечание 2. Совместная независимость, очевидно, влечет попарную независимость. Обратное, вообще говоря, неверно.

Пример 1. Пусть брошены три уравновешенные монеты. Определим события следующим образом:

: монеты 1 и 2 упали одной и той же стороной;

: монеты 2 и 3 упали одной и той же стороной;

: монеты 1 и 3 упали одной и той же стороной;

Легко проверить, что любые два события из этого набора независимы. Все же три в совокупности зависимы, ибо зная, например, что события   произошли, мы знаем точно, что   также произошло.

Независимые сигма-алгебры

Определение 4. Пусть   две сигма-алгебры на одном и том же вероятностном пространстве. Они называются независимыми, если любые их представители независимы между собой, то есть:

.

Если вместо двух имеется целое семейство (возможно бесконечное) сигма-алгебр, то для него определяется попарная и совместная независимость очевидным образом.

Независимые случайные величины

Определения

Определение 5. Пусть дано семейство случайных величин  , так что  . Тогда эти случайные величины попарно независимы, если попарно независимы порождённые ими сигма-алгебры  .

Случайные величины независимы в совокупности, если таковы порождённые ими сигма-алгебры.

Определение, данное выше, эквивалентно любому другому из нижеперечисленных. Две случайные величины   независимы тогда и только тогда, когда:

Для любых  :

Для любых борелевских функций   случайные величины   независимы.

Для любых ограниченных борелевских функций  :

Свойства независимых случайных величинПусть   — распределение случайного вектора   — распределение   и   — распределение  . Тогда   независимы тогда и только тогда, когда где   обозначает (прямое) произведение мер.Пусть   — кумулятивные функции распределения   соответственно. Тогда   независимы тогда и только тогда, когда Пусть случайные величины   дискретны. Тогда они независимы тогда и только тогда, когда

Пусть случайные величины   совместно абсолютно непрерывны, то есть их совместное распределение имеет плотность  . Тогда они независимы тогда и только тогда, когда ,где   — плотности случайных величин   и   соответственно.

9.ЗАКОН РАСПРЕДЕЛЕНИЯ ДИСКРЕТНОЙ СЛУЧАЙНОЙ ВЕЛИЧИНЫ Определение. Соотношение между возможными значениями случайной величины и их вероятностями называется законом распределения дискретной случайной величины. Закон распределения может быть задан аналитически, в виде таблицы или графически. Таблица соответствия значений случайной величины и их вероятностей называется рядом распределения. Графическое представление этой таблицы называется многоугольником распределения. При этом сумма все ординат многоугольника распределения представляет собой вероятность всех возможных значений случайной величины, а, следовательно, равна единице.Пример. По цели производится 5 выстрелов. Вероятность попадания для каждого выстрела равна 0,4. Найти вероятности числа попаданий и построить многоугольник распределения. Вероятности пяти попаданий из пяти возможных, четырех из пяти и трех из пяти были найдены выше по формуле Бернулли и равны соответственно: Пример. В первой коробке содержится 10 шаров, из них 8 белых; во второй коробке 20 шаров, из них 4 белых. Из каждой коробки наугад извлекли по одному шару, а затем из этих двух шаров наугад берут один шар. Найти вероятность того, что этот шар белый. Вероятность того, что взятый из первой коробки шар белый - что не белый - . Вероятность того, что взятый из второй коробки шар белый - что не белый -  Вероятность того, что повторно выбран шар, извлеченный из первой коробки и вероятность того, что повторно выбран шар, извлеченный из второй коробки, равны 0,5. Вероятность того, что повторно выбран шар, извлеченный из первой коробки, и он белый -  Вероятность того, что повторно выбран шар, извлеченный из второй коробки, и он белый -  Вероятность того, что повторно будет выбран белый шар, равна

10. МАТЕМАТИЧЕСКОЕ ОЖИДАНИЕ M ДИСКРЕТНОЙ СЛУЧАЙНОЙ ВЕЛИЧИНЫ - это среднее значение случайной величины, равное сумме произведений всех возможных значений случайной величины на их вероятности. Свойства математического ожидания: 1.Математическое ожидание постоянной величины равно самой постоянной . 2.Постоянный множитель можно выносить за знак математического ожидания . 3.Математическое ожидание произведения двух независимых случайных величин равно произведению их математических ожиданий .  4.Математическое ожидание суммы двух случайных величин равно сумме математических ожиданий слагаемых  Для описания многих практически важных свойств случайной величины необходимо знание не только ее математического ожидания, но и отклонения возможных ее значений от среднего значения.

11. ДИСПЕРСИЯ ДИСКРЕТНОЙ СЛУЧАЙНОЙ ВЕЛИЧИНЫ  Дисперсией дискретной случайной величины Х называют математическое ожидание квадрата отклонения случайной величины от ее математического ожидания: D ( X ) = M ( X - M ( X )) 2. Для вычислений удобнее пользоваться формулой :  D ( X ) = M ( X 2 ) - ( M ( X )) 2.  Дисперсия обладает следующими свойствами.  1. Дисперсия постоянной величины С равна нулю : D ( C ) = 0.  2. Постоянный множитель можно выносить за знак дисперсии, возводя его в квадрат : D ( CX ) = C 2D ( X ).  3. Дисперсия суммы нескольких взаимно независимых случайных величин равна сумме дисперсий этих величин:  D ( X+Y+Z ) = D ( X )+D ( Y )+D ( Z ).  4. Дисперсия суммы постоянной величины и случайной - равна дисперсии случайной величины: D ( C+X ) = D ( X ).  Дисперсию обозначают также как s 2 с нижним индексом, обозначающим соответствующую случайную величину или без него.

12. СРЕДИ ЯРКИХ ПРЕДСТАВИТЕЛЕЙ РУССКОЙ ОПИСАТЕЛЬНОЙ ШКОЛЫ статистики выделяется один из первых просветителей России В.Н.Татищев (1686-1750), который поставил вопрос о едином текущем учёте населения, указал на недостатки ревизий, разработал конкретные предложения по их проведению; рост народонаселения он рассматривал в неразрывной связи с развитием экономики и культуры России. В развитии статистики видное место принадлежит представителям отечественной науки и практики. В эпоху Петра I в работах И.К. Кирилова (1689—1737) и В.Н. Татищева (1686—1750) статистика трактовалась преимущественно как описательная наука. Но уже со второй половины XIX в. на первый план выдвигается познавательное значение статистики. К представителям описательной школы относят и учённого энциклопедических знаний - М.В.Ломоносова (1711-1765). М.В. Ломоносов усовершенствовал программу обследования Татищева, разослал её в города и уезды. Материалы о населении, о природных богатствах, финансах и экономике России в разрезе сельского хозяйства, промышленности, торговли, транспорта в течение длительного времени поступали в Российскую академию наук в виде иллюстрированных статистических данных и были обработаны уже после смерти М.В.Ломоносова. Его работы не были чисто описательными, им был присущ аналитический характер. Также яркими представителями русской описательной школы являются И.К. Кириллов (1689-1737), И.И. Голиков (1735-1801), С.Н. Плещев (1752-1802), М.И. Чулков (1740-1793) и другие. Собранные ими материалы стали источником сведений по экономической теории России с древних времён до XVIII в. Представители русской теоретической школы Основными представителями этого направления русской статистики были Д. Бернулли (1700-1782), И.Ф. Герман (1755-1815) и другие. Уже в начале XIX в. статистика нуждалась в уточнении организационных и методологических основ, что было вызвано изменениями в системе государственного управления и распространением прогрессивно-демократических идей. В этот период выходит ряд крупных работ по теории статистики. В книги «Всеобщая теория статистики. Для обучающих сей науке» К.Ф. Герман(1767-1838) изложил основные положения, раскрывающие статистику как науку. В истории развития статистики большое значение имеют работы К.И. Арсеньева (1789-1856), в которых он утверждал, что статистика в состоянии дать адекватную характеристику жизни государства. Наиболее прогрессивные для этого времени теоретические основы статистики как самостоятельной науки были созданы Д.П. Журавским (1810-1856). Он дал системное изложение основ теоретической базы статистики как науки, определение статистической науки, уделил большое внимание вопросу достоверности данных, методу группировок, раскрыл принцип единства количественного и качественного анализа. Определив статистику как «счет по категориям», Журавский отмечал, что статистика необходима для «изучения всего, относящегося к человеку». Журавский определил важнейшие разделы социальной статистики:  - статистика народонаселения – необходимость его исчисления по классам и занятиям;  - изучение народного быта, жилища, питания;  - статистика театров, клубов, дворянских собраний, народных увеселений; - статистика учреждений, охраняющих права собственности; - статистика нищеты, бедности, сиротства; - статистика самоубийств с указанием средств, причин, званий, возраста и прочих характеристик лиц, лишивших себя жизни.

Во всех предложениях Д.П. Журавский проводил идею как можно более точного и полного выявления дифференциации людей по условиям их жизни, по состоятельности. Большое влияние на развитие русской статистической мысли оказали русские демократы-революционеры: А.Н. Радищев (1749-1802), А.И. Герцен (1812-1870), Н.П. Огарев (1813-1874). Эти выдающиеся деятели внесли определённый вклад в теорию и практику статистики. Ими разработаны программные вопросы экономической и судебной статистики, делались попытки определять средние величины, поставлен вопрос о социально-экономическом значении метода группировок. Основоположники академической школы!

Основоположниками этой школы явились Э.Ю. Янсон (1835-1893), А.И. Чупров (1842-1908), А.А. Чупров (1874-1926), Н.А. Каблуков (1849-1919) и А.А.Кауфман (1864-1919). Профессор Петербургского университета Ю.Э. Янсон в работе «Теория статистики» назвал статистику общественной наукой. Этого взгляда на статистику придерживался и видный экономист А.И. Чупров, который в работе «Курс статистики» отмечал необходимость массового статистического исследования при помощи метода количественного наблюдения большого числа факторов для того, чтобы описать общественные явления, подметить законы и определить причины, их вызвавшие. В работах известного ученого А.А. Кауфмана (1874—1919) излагается взгляд на статистику как «искусство измерения политических и социальных явлений». Особое место в истории российской статистики принадлежит земской статистике. При земствах, органах местного самоуправления, с середины 70-х годов XIX века были созданы специальные статистические бюро. Земские статистики собирали и разрабатывали огромный статистический материал, который использовался для глубоких экономических и социальных исследований пореформенной России. Работа земской статистики характеризуется не только сбором и разработкой статистических данных, но и развитием статистической методологии. Видными земскими статистиками были В.И. Орлов, П.П. Червинский, Ф.А. Щербина, А.П. Шликевич. В 90-х годах были созданы фабрично-заводские инспекции, которые вели текущую статистику, разрабатывали данные по статистике труда, в том числе о составе рабочей силы, несчастных случаях, стачках и др. Стала развиваться промышленная статистика. Под руководством В.Е. Варзара в 1900, 1908 и 1912 гг. были проведены первые переписи промышленности.  Академическая статистика и её представители оказали большое положительное влияние на развитие статистической науки в России и на работу статистических органов. К началу XX в. Россия была одним из признанных центров научной статистической мысли.

13. СТАТИСТИЧЕСКАЯ СОВОКУПНОСТЬ – это множество единиц изучаемого явления, объединенных единой качественной основой, общей связью, но отличающихся друг от друга отдельными признаками. Таковы, например, совокупность домохозяйств, совокупность семей, совокупность предприятий, фирм, объединений и т.п. Совокупность называется однородной, если один или несколько изучаемых существенных признаков ее объектов являются общими для всех единиц.  Совокупность, в которую входят явления разного типа, считается разнородной. Совокупность может быть однородна в одном отношении и разнородна в другом. В каждом отдельном случае однородность совокупности устанавливается путем проведения качественного анализа, выяснения содержания изучаемого общественного явления. 2. Признак – это качественная особенность единицы совокупности.  По характеру выражения различают атрибутивные и количественные признаки: • атрибутивные (описательные) – выражаются словесно, например, пол, национальность, образование и др. По ним можно получить итоговые сведения о количестве статистических единиц, обладающих данным значением признака; • количественные – выражаются числовой мерой (возраст, стаж работы, объем продаж, размер дохода и т.д.) По ним можно получить итоговые данные о количестве единиц, обладающих конкретным значением признака, и суммарное или среднее значение признака по совокупности. По характеру вариации признаки делятся на: • альтернативные - могут принимать только одно из двух возможных значений признака. Это признаки обладания или не обладания чем-либо. Например, пол, семейное положение, в маркетинговых или политологических исследованиях - ответ на вопрос в форме «да или нет»; • дискретные – количественные признаки принимающие только отдельные значения, без промежуточных между ними - как правило целочисленные, например, разряд рабочего, число детей в семье и т.д.); • непрерывные – количественные признаки, принимающие любые значения. На практике они, как правило, округляются в соответствии с принятой точностью (например: бухгалтерская прибыль по балансу в рублях, налоговая по налоговым регистрам – в тыс. руб. По отношению ко времени различают: • моментные признаки, характеризующие единицы совокупности на критический момент времени например, стоимость основных производственных фондов (ОПФ) определяется на 01.01. и 31.12 соответствующего года как стоимость ОПФ на начало и конец отчётного года; • интервальные признаки, характеризующие явление за определённый временной период ((год, квартал, месяц и т.д.), например, сменная выработка, дневная выручка, годовой объём продаж и т.д. По характеру взаимосвязи признаки делятся на: • факторные, вызывающие изменения других признаков, либо создающие возможности для изменений значений других признаков. Факторные признаки подразделяются соответственно на признаки причины и признаки условия; • результативные (признаки следствия), зависящие от вариации других признаков. Например, стоимостной объём выпуска продукции является результативным признаком, величина которого зависит от факторных признаков - численности работников и производительности труда.