Добавил:
Upload Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:
a4.doc
Скачиваний:
45
Добавлен:
19.12.2018
Размер:
11.89 Mб
Скачать

Глава 4 Случайные процессы и их приложения

4.1. Основы теории случайных событий и величин

В стандартном курсе высшей математики раздел теории вероятности излагается в трех частях: случайные события, случайные величины и случайные функции. Классическое изложение с математических позиций имеет серьезный изъян: оно не привязано к практике. Кроме того, в образовательном стандарте приводятся рекомендации в основном по первым двум разделам, хотя на практике важен третий, а именно случайные процессы.

Существует множество работ отечественных и зарубежных авторов, посвященных теории вероятности и ее приложениям. Наибольшую практическую значимость и адаптированность имеют работы Е.С. Вентцель, Г.Я. Мирского, Дж. Бендата, А.  Пирсола, Б.Р.  Левина, В.И Тихонова, Я.И. Хургина, А.М.  Заездного.

В классической теории вероятности существует две основных гипотезы: однородности и независимости наблюдений.

Однородность предполагает независимость результатов опытов от времени их проведения. Классический пример – рулетка. Результат не зависит от времени суток, дня, недели, сезона и т.д.

Независимость означает, что каждый следующий опыт (эксперимент) не зависит от результатов предыдущих.

На практике гипотезы однородности и независимости должны подтверждаться экспериментально. В связи с этим в прикладной теории вероятностей существуют алгоритмы доказательств этих гипотез.

В дальнейшем изложении используем теорию кибернетики, согласно которой любое наблюдаемое явление (процесс) можно представить в виде «черного ящика»:

а)

б)

Рис. 4.1. Модели исследования объектов

где О – объект наблюдения (черный ящик), Н – наблюдатель. По первой модели (а), наблюдатель не имеет возможности воздействия на объект и просто накапливает статистику; по второй (б) – есть возможность активного влияния на объект.

С позиций теории вероятности, первые два раздела отличаются способом реализации или интерпретации объекта. В первом случае объект имеет два устойчивых состояния: 0 или 1. В таком варианте неважно, какой объект мы используем, важны лишь внешние описания. Второй вариант предполагает активное воздействие на объект с использованием обратной связи.

Теория случайных величин предполагает, что объект находится в одном из состояний, 0 или 1, причем пребывание объекта в этих состояниях случайно. Время в данном случае не входит в число аргументов. Как правило, в математике используют обе вышесказанные теории и принимают следующие определения. Допустим, произведено независимых опытов, удовлетворяющих обеим гипотезам. При этом количество опытов, приводящих объект в состояние 0, равно , в состояние 1 – . тогда вероятность выходного состояния определяется соотношением:

.

(4.1)

Аналогично противоположное состояние

.

(4.2)

Удачно предложенные концепции предполагают соотношения:

;

.

(4.3)

Приведенные соотношения (4.2) (4.3) позволяют судить о взаимосвязанных событиях.

В теории случайных событий часто используются графические аналогии в виде диаграмм Эйлера-Венна [33]. При этом полная (генеральная) сетка событий первого типа оценивается формулой (4.1) и его альтернативой типа (4.2). Общая совокупность из опытов представляется в виде прямоугольника (полная группа событий), вероятности и – в виде кругов Эйлера-Венна (рис. 4.2).

Рис. 4.2. Вероятностная интерпретация событий

Здесь – полное множество возможных исходов, – исходы типа 1, – исходы типа 0. Существует зона неопределенности , в которой нельзя принять решений.

В соответствии с формулами (4.2) и (4.3) и кругами Эйлера-Венна справедливы следующие математические соотношения:

;

(4.4)

.

(4.5)

Последнее выражение имеет название формулы Байеса [7] для независимых событий. В случае зависимых событий в алгебраической форме выражение (4.5) приобретает вид:

.

(4.6)

Здесь и образуют совокупность двух событий, причем является вероятностью события , – вероятность совместного события, а – условная вероятность того, что событие состоялось.

Выражения (4.5) и (4.6) являются краеугольными в области теории вероятности.

Перейдем теперь к теории случайных величин. Можно обратиться к моделям на рис. 4.1 при условии, что выходная величина непрерывна. Например, мы изучаем скорость движения поезда. На нее влияет множество ограничений: тип поезда, состояние пути, временные ограничения по скорости, метеоусловия, соседние поезда и т.д. Общая совокупность ограничений образует достаточно сложную картину, в ходе которой результирующая скорость приобретает характер случайной величины. Основная функция, описывающая поведение случайной величины, – плотность распределения вероятности.

Для исследования любой случайной величины необходима последовательность действий, представленная на рис. 4.3.

Рис. 4.3. Исследование непрерывного объекта

Здесь АЦП – аналого-цифровой преобразователь, Рег – регистратор событий. Не усложняя процедуры, будем считать, что последовательность считывания значений равномерна с шагом . Тогда за время (время реализации) мы получим отсчетов, причем . Разобьем интервал возможных значений на подынтервалов. В этом случае можно фиксировать количество попаданий в -й интервал как или в относительной форме как . Полученная зависимость называется гистограммой распределения вероятности и графически представляется в следующей форме:

Рис. 4.4. Гистограмма распределения

Здесь - ширина подынтервала, - относительная частота попадания в него:

.

(4.7)

Предположим, значение неограниченно уменьшается, а количество подинтервалов при этом возрастает. При этом получается оценка, сформулированная Л. Эйлером [7] и приобретающая свойства гладкой функции . Функция впоследствии получила название плотности распределения вероятности. Это фундаментальное определение, на котором держится базовая теория. Приведем основные свойства плотности распределения.

1. Условие нормировки. Исходя из соотношения (1.8), очевидно, что:

,

(4.8)

откуда следует, что сумма наблюдений равна генеральной совокупности. Следовательно, справедлива формула:

,

(4.9)

или в интегральной форме

.

(4.10)

Условие нормировки является фундаментальным и наиболее очевидным в теории вероятности. Действительно, вероятность принятия случайной величиной любого из возможных значений достоверна, т. е. равна 1, что и выражается формулами (4.9) и (4.10).

2. Положительная определенность. На любом интервале функция неотрицательна. Это вытекает из первого свойства. Так как вероятность не может быть отрицательной по определению, а она оценивается интегралом от плотности распределения:

,

(4.11)

то на любом интервале должен быть положительный результат.

В результате перехода к непрерывной величине получаем гладкую кривую, представленную на рисунке 4.5

Рис. 4.5. Плотность распределения вероятностей

На практике существует конечное множество типичных распределений случайных величин. Наиболее полный их перечень приведен в книге А.Н. Заездного [12].

Среди всех возможных распределений наиболее значимо нормальное распределение, описываемое выражением:

,

(4.12)

Здесь и – математическое ожидание и дисперсия случайной величины, определения которых будут даны позже.

Нормальное распределение является базовым вследствие центральной предельной теоремы Ляпунова [17]. Согласно теореме, если в результирующей случайной величине участвуют четыре о более независимых составляющих, то результирующее распределение нормально.

Второе распределение, используемое на практике, – равномерное. Для него существует следующее определение. Предположим, на интервале функция существует, а вне этих значений равна нулю. Учитывая условие нормировки, получаем:

.

(4.13)

Рис. 4.6. Равномерное распределение

Равномерное распределение считается наиболее жестким для практических приложений, так как здесь абсолютно не сглаживаются исходы случайных выборок. Такая жесткая модель используется, например, в теории систем массового обслуживания (СМО). При моделировании таких систем наиболее важны критические ситуации, а хуже, чем равновероятные события, в этом смысле нет.

Исследование случайных величин производится в следующей последовательности:

1. Накапливаются статистические данные методов наблюдения за объектом и получение отсчетов с интервалом . При этом по умолчанию предполагается, что соседние отсчеты независимы.

2. Строится гистограмма распределения

3. Проводится аппроксимация гистограммы к одному из канонических распределений на основе критериев согласия. Один из таких критериев, – критерий согласия Пирсона относится к нормальному распределению и является наиболее употребляемым. Его легко можно обобщить на любое типовое распределение по следующему алгоритму:

4. Накапливается совокупность из N дискретных и желательно независимых отсчетов .

5. Выбирается аппроксимируемая функция , к которой может приближаться полученная гистограмма распределения.

6. Производится оценка качества аппроксимации методом суммирования разностей гладкой функции и совокупности отсчетов:

.

(4.14)

7. Выбирается критерий согласия в виде константы М, относительно которой справедливы следующие утверждения:

– если ,гипотеза является состоятельной;

– если , гипотеза отвергается.

Это сценарий «жестких решений». В настоящее время большой популярностью пользуется метод мягких решений, или метод нечетких множеств. Согласно методу вводится интервал неопределенности , в соответствии с которым алгоритмы оценивания приводятся к виду:

– если , гипотеза состоятельна;

– если , гипотеза отвергается;

– если , гипотеза не определена, и необходимо дополнительное исследование.

Проиллюстрируем сказанное графическими изображениями. На рис. 4.7 представлены гистограмма распределения случайной величины и аппроксимирующая функция. Применяя формулу (4.14), мы можем использовать критерий жестких решений или нечетких множеств. Последнее относится к теории обучающихся систем и имеет более высокую производительность. Такие системы и алгоритм являются основой так называемых интеллектуальных систем (искусственный интеллект, ИИ).

Рис. 4.7. Оценка качества аппроксимации

Возможны более сложные многомерные распределения, когда случайная величина зависит от двух и более аргументов. В этом случае рассматриваются функции , и т.д. В частности, двумерная плотность распределения представляет поверхность, как показано на рис. 4.8. По этой поверхности можно проводить сечения по трем координатам, и . В первых двух случаях в сечении получается одномерная плотность распределения при фиксированной второй координате, т. е. или – условные плотности распределения. В третьем случае образуется двумерная фигура, т. е. некоторый эллипс распределения.

Рис. 4.8. Двумерная плотность распределения

На практике описание ситуации пытаются упростить. Один из вариантов упрощения – сведение многомерных функций распределения к функциям меньшего порядка. Простейший вариант упрощения – те же формулы Байеса. Для рассмотренного нами варианта функции двух случайных аргументов можно записать:

.

(4.15)

Это и есть распространение формулы Байеса на случайные величины.

Даже в случаях одномерных распределений, близких к типичным, появляются дополнительные проблемы, в том числе вычислительные. В таких случаях переходят к числовым характеристикам случайных величин. Они образуют два семейства: начальные и центральные моменты. Начальный момент порядка определяется из выражения:

(4.16)

или в дискретной форме:

(4.17)

Центральный момент -го порядка определяется из соотношения:

(4.18)

или в дискретной форме:

(4.19)

Наиболее значимы начальный момент первого порядка, называемый математическим ожиданием, и центральный момент второго порядка – дисперсия. Математическое ожидание эквивалентно среднему значению случайной величины, а дисперсия – разбросу относительно математического ожидания. Математическое ожидание имеет вид:

(4.20)

Соответственно выражения для дисперсии запишутся в виде:

(4.21)

Приведенные соотношения проиллюстрируем графически. На рис. 4.9 приведены плотности распределения вероятностей для двух различных вариантов. Вариант соответствует различным математическим ожиданиям, – различным дисперсиям.

а)

б)

Рис. 4.9. Варианты распределений

Из рисунка видно, что , а .

Как правило, этих числовых оценок достаточно для множества практических приложений. Иногда для частных задач используются другие числовые оценки. Назовем наиболее употребимые.

Мода – значение случайной величины, при которой плотность распределения имеет максимум:

(4.22)

На рис. 4.10 приведён пример плотности распределения. Здесь же приведено значение математического ожидания, из чего следует, что при несимметричных распределениях мода и математическое ожидание не совпадают.

Рис. 4.10. К определению моды

Возможны распределения с несколькими максимумами. Они называются полимодальными. Пример полимодального распределения приведён на рис. 4.11.

Рис. 4.11. Полимодальное распределение

Кроме этого существуют так называемые антимодальные распределения.

Рис. 4. 12. Антимодальное распределение

В качестве примера приведем задачу о случайном выборе точки на гармоническом сигнале (см. рис. 4.13). Без приведения математических выкладок запишем окончательный результат. Плотность распределения вероятности такой случайной величины равна:

.

(4.23)

Рис. 4.13. Случайные выборки на гармоническом сигнале

Такое распределение имеет название закона арксинуса и плотность распределения для него:

.

(4.24)

Другая количественная оценка – медиана. Это такое значение случайной величины, при котором её вероятности слева и справа от нее равновероятны:

(4.25)

В интегральной форме соотношение (4.25) принимает вид:

(4.26)

Если распределение симметрично, то медиана совпадает с математическим ожиданием, что иллюстрируется рис.4.14. Заштрихованные области равны по площади, составляющей 0,5.

Рис. 4.14. К определению медианы

Центральный момент третьего порядка называется асимметрией. Он характеризует отклонение распределения от нормального. Выражение для асимметрии имеет вид:

(4.27)

На рис. 4.15 показаны два типа асимметричных распределений. Левое, со знаком «+», соответствует положительной асимметрии, правое – отрицательной.

Рис. 4.15. К определению асимметрии

Еще одна количественная оценка – эксцесс. Это степень отличия распределения от нормального. В нормированном виде он представляет собой центрированный момент четвертого порядка:

(4.28)

«Довесок» – 3 в формуле (4.27) означает, что центральный момент четвертого порядка для нормального распределения равен 3.

Другие моментные характеристики обычно не используются.

Второй вид функций, описывающих распределения случайных величин, – функции распределения . Функция распределения от аргумента – это вероятность случайной величины попасть в полубесконечный интервал :

(4.29)

В связи с такой трактовкой можно описать свойства функции распределения.

1. Положительная определенность. Для любых значений неотрицательна:

(4.30)

Положение (4.30) доказывается методом от противного. Предположим, что на некотором интервале значения отрицательны. Тогда в соответствии с (4.30) появляется возможность отрицательной вероятности, что противоречит определению.

2. Ограниченность. В соответствии с определением вероятность не может превосходить 1. Поэтому справедливы следующие ограничения:

(4.31)

3. Интервальность. Вероятность попадания случайной величины в интервал определяется в виде разности функций распределения:

(4.32)

В связи со свойствами существуют взаимно однозначные соотношения:

(4.33)

На практике предпочитают плотность распределения вместо функции распределения. Это определяется лучшей визуальной информативностью функции , т.к. основные свойства видны сразу: мода, математическое ожидание, асимметрия и дисперсия «прощупываются» на основе графического образа распределения. Также на практике достаточно беглого оперативного сравнения различных случайных величин.