- •1. Основы теории случайных процессов
- •1.1. Семейства случайных величин
- •1.2. Выборочные функции
- •1.3. Теорема Колмогорова
- •1.4. Вещественный параметр. Дискретный случай
- •1.5. Вещественный параметр. Непрерывный случай
- •1.6. Пуассоновский процесс
- •1.7. Общие свойства случайных процессов
- •1.8. Примеры случайных процессов
- •2. Случайные потоки сообщений
- •2.1. Основные понятия
- •2.2. Принципы классификации входящих потоков
- •Определим p1() и p0():
- •Вероятность поступления k и более заявок определяется по формуле
- •2.6.1. Симметричный и примитивный потоки
- •2.6.2. Поток с повторными заявками
- •Вектор, обладающий свойствами (2.20) и (2.21), называется стохастическим. Если его компоненты представляют вероятности состояний системы, то вектор называется вектором состояний системы.
- •Матрица перехода имеет вид
- •2.12. Предельные теоремы для потоков событий
- •2.12.1. Предельная теорема для суммарного потока
- •2.12.2. Предельная теорема для редеющих потоков
- •3. Основы теории систем массового обслуживания
- •3.1. Элементы систем массового обслуживания
- •3.1.1. Виды распределения входящего потока и времени обслуживания
- •3.1.2. Дисциплина обслуживания заявок
- •3.1.3. Канал обслуживания
- •3.1.4. Выходящий поток
- •3.2. Классификация смо
- •3.3. Процессы гибели и размножения
- •3.4. Системы массового обслуживания с отказами
- •3.4.1. Классическая система массового обслуживания с отказами (система Эрланга)
- •Используя нормировочное условие
- •3.4.2. Системы массового обслуживания с отказами и полной взаимопомощью между каналами
- •3.4.3. Системы массового обслуживания с отказами и частичной взаимопомощью между каналами
- •Для сокращения дальнейшей записи введем обозначение
- •Вероятность обслуживания заявки
- •3.4.4. Системы массового обслуживания с отказами и неоднородными потоками
- •3.4.5. Примеры систем массового обслуживания с отказами
- •Решение
- •Вероятность занятости канала
- •Решение
- •Решение
- •Среднее время полной загрузки
- •4. Системы массового обслуживания с ожиданием
- •4.1. Классическая система массового обслуживания с ожиданием
- •С ожиданием (смо с конечной очередью)
- •4.2. Векторная модель с конечной очередью и неоднородными запросами на число мест в очереди
- •4.3. Векторная модель с бесконечной очередью и однородными запросами на число мест в очереди
- •Подставляя сюда (4.10), будем иметь
- •Где коэффициент , с учетом (4.12), имеет вид
- •4.4. Примеры систем массового обслуживания с ожиданием
- •Вероятность обслуживания заявки для смо с отказами
- •Среднее число заявок в системе
- •5. Различные системы массового обслуживания
- •5.1. Система массового обслуживания с ожиданием и приоритетом в обслуживании
- •5.2. Векторная модель системы массового обслуживания с приоритетом
- •5.3. Замкнутая векторная смо с отказами в обслуживании
- •5.4. Исследование и оптимизация управляемой смо
- •5.5. Примеры специальных смо
- •Решение
- •Среднее число ожидающих обычного переговора
- •Оглавление
1.6. Пуассоновский процесс
Сначала рассмотрим пуассоновский процесс, который является потоком событий простейшего типа и, кроме того, сам играет важную роль во многих приложениях. Например, пуассоновский процесс служит моделью для потоков таких событий, как радиоактивные распады, телефонные вызовы или обращения в страховое общество. Разумеется, в некоторых случаях эта модель дает хорошее приближение к истинной ситуации, а иногда используется лишь на начальном этапе изучения явлений.
Построим пуассоновскую модель на основании следующих предложений Хинчина [5]:
1. Вероятность Рn(t) того, что в интервале времени длительностью t произойдет ровно n событий, зависит от n и t, но не зависит от положения этого интервала на временной оси (условие стационарности).
2. Числа событий, происшедших в течение непересекающихся интервалов времени, являются независимыми случайными величинами (отсутствие последствия).
3. Вероятность того, что в малом интервале времени длительностью t произойдет более одного события, есть величина порядка меньше t, т.е. при t0 эта вероятность равна 0(t) (условие ординарности).
Рассмотрим следствия, вытекающие из условий 1 – 3.
Из условий 1 и 2 вытекает, что для любых t и u
Р0(t + u) = P0(t)P0(u).
Единственным решением этого уравнения, для которого 0 P0(t) 1, является
,
где – некоторая неотрицательная константа. Исключая тривиальный случай Р0(t)=1 для всех t, можно считать > 0. (Другие тривиальные решения P0(t)=0 не совместимо с условиями 2 и 3.) Для малых t
P0(t) = 1– t + 0(t),
и из условия 3 получаем
Р1(t) = 1 – Р0(t) + 0(t) = t + 0(t).
Далее в силу условий 2 и 3 для n 1
Рn(t + ) = (1 – )Pn(t) + Pn-1(t) + 0().
Поделив обе части на и устремив к нулю, убеждаемся, что производная Рn1(t) существует и удовлетворяет соотношению
Рn1(t) = [Pn–1(t) – Pn(t)]. (1.2)
Положив Рn(t) = , получим .
Единственным решением этой системы, удовлетворяющим условиям v0(0) = 1, vn(0) = 0 для всех n 1, является
.
Следовательно, единственным решением системы (1.2), при условии Рn(0) = 0 для всех n 1 и P0(0) = 1, будет
. (1.3)
Определим теперь случайный процесс (t), который даст возможность описать вероятностную структуру пуассоновского процесса. Пусть (t) обозначает число пуассоновских событий на интервале времени (0, 1]; приращение (t + u) – (u) есть число событий на интервале (u, u + t]. Тогда (t), так же как и любое приращение (t + u) – (u), будет иметь пуассоновское распределение с параметром t .
Определим конечномерные распределения ( t ) соотношением
где r1 r2 … rn – целые числа; t1 t2 … tn. Ясно, что условия 1–3 и условия согласованности теоремы Колмогорова выполняются. Следовательно, существует вероятностная мера на функциональном пространстве Х, которая определяется этими конечномерными распределениями.
Построим эквивалентный вариант (t) следующим образом. Из вида конечномерных распределений следует, что с вероятностью единица (t) не убывает на множестве всех рациональных t; оставим без изменения (t) для всех рациональных t, а для иррациональных t положим (t) = (tk), где tk – рациональны и меньше t. Нетрудно видеть, что так определяемый процесс эквивалентен (t), поскольку значения нового процесса являются с вероятностью единица пределами величин (tk), а (t) – предел по вероятности этих величин, что следует из специфики конечномерных распределений.
Далее с вероятностью единица этот эквивалентный вариант (t) не убывает и в каждом конечном интервале имеет не более конечного числа единичных скачков. Эти скачки соответствуют появлениям пуассоновских событий, и мы можем определить, например, случайные величины 1, 2, …, n где n – промежуток времени между появлениями (n – 1) и n-го событий после момента t = 0.
Последнее замечание приводит к другому естественному способу определения процесса (t) с помощью параметрического метода (второй способ § 1.5). Рассмотрим множество Х0 всех функций (t), определенных для t 0 соотношениями
(t) = 0 при 0 t 1,
(t) = n при 1 + … + n t < 1 + … + n+1,
где 1, 2, … – положительные параметры. Множество Х0 является подмножеством функционального пространства Х и каждое (t) X0 будет ступенчатой функцией, имеющей единичные скачки в точках t = 1 + … + + n. Пусть параметры j являются независимыми случайными величинами с плотностью распределения e-t. Тогда сумма 1 + … + n имеет плотность (ntn / n!)e-t, и легко заметить, что совместное распределение случайных величин (t1), …, (tk) совпадает с введенным ранее распределением для процесса Пуассона (1.3).