- •1 Задачи анализа;
- •2 Задачи синтеза;
- •3 Задачи идентификации.
- •Основные задачи теории кс
- •1. Задачи анализа;
- •2. Задачи синтеза;
- •3. Задачи идентификации.
- •2. Высокой интенсивностью взаимодействия и вытекающим отсюда требованием уменьшения времени ответа.
- •Функционирование кс
- •Основные задачи теории вычислительных систем
- •Общая характеристика методов теории вычислительных систем
- •3. Классификация вычислительных систем
- •Характеристики производительности и надежности кс
- •Характеристики надежности кс
- •1 Холодное резервирование. Работает только основной канал.
- •2 Нагруженный резерв. Включены оба канала (резервный канал занимается посторонними задачами). Время перехода на основную задачу меньше чем в холодном резерве.
- •Общая характеристика методов теории вычислительных систем
- •Характеристики производительности кс
- •1. Номинальная производительность ;
- •2. Комплексная производительность ;
- •3. Пакеты тестовых программ spec XX
- •Характеристики надежности кс
- •1 Холодное резервирование. Работает только основной канал.
- •2 Нагруженный резерв. Включены оба канала (резервный канал занимается посторонними задачами). Время перехода на основную задачу меньше чем в холодном резерве.
- •4) Указывается начальное состояние системы;
- •8) Находятся показатели качества вс на основе найденных вероятностей состояния системы.
- •Анализ надежности кс со сложной структурой
- •2.Расчет надежности кс
- •2. Для каждой вершины можно вычислить среднее количество попаданий вычислительного процесса в эту вершину по формуле
- •1. Разбить множество операторов на классы:
- •Модели вычислительных систем как систем массового обслуживания
- •1 Общие понятия и определения
- •Например m/m/1
- •2 Параметры систем массового обслуживания
- •Модели массового обслуживания вычислительных систем|
- •1. Представление вычислительной системы в виде стохастической сети
- •2. Потоки заявок
- •3. Длительность обслуживания заявок
- •Характеристики одноканальных смо
- •Многопроцессорные системы
- •5. Характеристики бесприоритетных дисциплин обслуживания
- •1) В порядке поступления (первой обслуживается заявка, поступившая раньше других);
- •2) В порядке, обратном порядку поступления заявок (первой обслуживается заявка, поступившая позже других);
- •3) Наугад, т. Е. Путем случайного выбора из очереди.
- •6. Характеристики дисциплины обслуживания с относительными приоритетами заявок
- •3.8. Характеристики дисциплин обслуживания со смешанными приоритетами
- •§ 3.9. Обслуживание заявок в групповом режиме
- •§ 3.10. Смешанный режим обслуживания заявок
- •§ 3.11. Диспетчирование на основе динамических приоритетов
- •§ 3.12. Оценка затрат на диспетчирование
- •1.Определяется интенсивность потока заявок I в смо Si из системы алгебраических уравнений
- •2.Вычисляются коэффициенты передач для каждой смо
- •3.Определяется среднее время обслуживания Ui заявки в смо Si :
- •6.Для моделирующей сети в целом характеристики п.5 определяются как
- •2.Расчет характеристик мультипроцессорной системы
- •1) Имеет доступ к общей памяти;
- •1.Средняя длина очереди заявок, ожидающих обслуживания в системе:
- •3. Среднее время пребывания заявок в системе :
- •Основные задачи теории кс
- •1. Задачи анализа;
- •2. Задачи синтеза;
- •3. Задачи идентификации.
- •1) С неограниченным временем пребывания заявок;
- •2) С относительными ограничениями на время пребывания заявок;
- •3) С абсолютными ограничениями на время пребывания заявок;
- •2.4. Контроллеры и сетевые комплексы ge Fanuc
- •Модели 311,313/323, 331
- •Коммуникационные возможности серии 90-30
- •2.4.3. Контроллеры VersaMax
- •2.4.4. Программное обеспечение
- •Общая характеристика протоколов и интерфейсов асу тп
- •2. Протоколы и интерфейсы нижнего уровня.
- •2. Основные технические характеристики контроллеров и программно-технических комплексов
- •Требования к корпоративной сети
- •2) Одновременное решение различных задач или частей одной задачи;
- •3) Конвейерная обработка информации.
- •1. Суть проблемы и основные понятия
- •1.1 Главные этапы распараллеливания задач
- •1.2 Сведения о вычислительных процессах
- •1.3 Распределенная обработка данных
- •1. Классификации архитектур параллельных вычислительных систем
- •1.1 Классификация Флинна
- •1. Процессоры
- •Память компьютерных систем
- •Простые коммутаторы
- •Простые коммутаторы с пространственным разделением
- •Составные коммутаторы
- •Коммутатор Клоза
- •Баньян-сети
- •Распределенные составные коммутаторы
- •Коммутация
- •Алгоритмы выбора маршрута
- •Граф межмодульных связей Convex Exemplar spp1000
- •Граф межмодульных связей мвс-100
- •3. Граф межмодульных связей мвс-1000
- •1. Построения коммуникационных сред на основе масштабируемого когерентного интерфейса sci
- •2. Коммуникационная среда myrinet
- •3. Коммуникационная среда Raceway
- •4. Коммуникационные среды на базе транспьютероподобных процессоров
- •1. Структура узла
- •2. Пакеты и свободные символы
- •3. Прием пакетов
- •4. Передача пакетов
- •5. Управление потоком
- •1. Структура адресного пространства
- •2. Регистры управления и состояния
- •3. Форматы пакетов
- •Когерентность кэш-памятей
- •1. Организация распределенной директории
- •2. Протокол когерентности
- •3. Алгоритм кэширования.
- •1 . Основные характеристики
- •1.2. Происхождение
- •1.3. Механизм когерентности
- •1. 4. Предназначение
- •1. 5. Структура коммуникационных сред на базе sci
- •1. 6. Физическая реализация
- •1. 7. Обозначение каналов
- •2. Реализация коммуникационной среды
- •2.1. На структурном уровне коммуникационная среда состоит из трех компонентов, как показано на рис. 2.1:
- •Масштабируемый когерентный интерфейс sci
- •Сетевая технология Myrinet
- •Коммуникационная среда Raceway
- •Коммуникационные среды на базе транспьютероподобных процессоров
- •1.Информационные модели
- •1.2. Мультипроцессоры
- •1.3. Мультикомпьютеры
- •Сравнительный анализ архитектур кс параллельного действия.
- •Архитектура вычислительных систем
- •Smp архитектура
- •Симметричные мультипроцессорные системы (smp)
- •Mpp архитектура
- •Массивно-параллельные системы (mpp)
- •Гибридная архитектура (numa)
- •Системы с неоднородным доступом к памяти (numa)
- •Pvp архитектура
- •Параллельные векторные системы (pvp)
- •1. Системы с конвейерной обработкой информации
- •1.2 Мультипроцессоры uma с много- ступенчатыми сетями
- •Мультипроцессоры numa
- •Мультипроцессор Sequent numa-q
- •Мультикомпьютеры с передачей сообщений
- •1. Общая характеристика кластерных систем.
- •2.Особенности построения кластерных систем.
- •Планирование работ в cow.
- •Без блокировки начала очереди (б); заполнение прямоугольника «процессоры-время» (в). Серым цветом показаны свободные процессоры
- •Общие сведения
- •Общие сведения
- •Логическая структура кластера
- •Логические функции физического узла.
- •Устройства памяти
- •Программное обеспечение
- •Элементы кластерных систем
- •1.1. Характеристики процессоров
- •Рассмотрим в начале процессор amd Opteron/Athlon 64.
- •Примеры промышленых разработок
- •Кластерные решения компании ibm
- •Диаграмма большого Linux-кластера.
- •Аппаратное обеспечение
- •Вычислительные узлы, выполняющие основные вычислительные задачи, для которых спроектирована система.
- •Программное обеспечение
- •Кластерные решения компании hp
- •Кластерные решения компании sgi
- •Производительность операций с плавающей точкой
- •Производительность памяти
- •Производительность системы ввода/вывода Linux
- •Масштабируемость технических приложений
- •Системное программное обеспечение
- •Архитектура san
- •Компоненты san
- •Примеры решений на основе san
- •San начального уровня
- •San между основным и резервным центром
- •Практические рекомендации
- •Построение san
- •Заключение
- •Принципы построения кластерных архитектур.
- •Оценки производительности параллельных систем
- •1) Имеет доступ к общей памяти;
- •2) Имеет общий доступ к устройствам ввода-вывода;
- •3) Управляется общей операционной системой, которая обеспечивает требуемое взаимодействие между процессорами и выполняемыми им программами как на аппаратном, так и на программном уровне.
- •4 Вероятность того, что в момент поступления очередной заявки все n процессоров заняты обслуживанием
- •Выбор коммутационного компонента.
- •Проблема сетевой перегрузки.
- •1. Обзор современных сетевых решении для построения кластеров.
- •1000-Мега битный вариант Ethernet
- •Организация внешней памяти
- •Эффективные кластерные решения
- •Концепция кластерных систем
- •Разделение на High Avalibility и High Performance системы
- •3. Проблематика High Performance кластеров
- •Проблематика High Availability кластерных систем
- •Смешанные архитектуры
- •6.Средства реализации High Performance кластеров
- •7.Средства распараллеливания
- •8.Средства реализации High Availability кластеров
- •9.Примеры проверенных решений
- •Архитектура san
- •Компоненты san
- •Примеры решений на основе san
- •San начального уровня
- •San между основным и резервным центром
- •Практические рекомендации
- •Построение san
- •Заключение
- •Symmetrix десять лет спустя
- •Матричная архитектура
- •Средства защиты данных
- •Ревизионизм и фон-неймановская архитектура
- •Литература
- •Связное программное обеспечение для мультикомпьютеров
- •1. Синхронная передача сообщений.
- •2. Буферная передача сообщений.
- •Планирование работ в cow
- •Средства распараллеливания
- •7.Средства распараллеливания
- •2. Кластерн ый вычислительн ый комплекс на основе интерфейса передачи сообщений
- •2.2 Программная реализация интерфейса передачи сообщений
- •2.3 Структура каталога mpich
- •2.4 «Устройства» mpich
- •2.5 Выполнение параллельной программы
- •2.6 Особенности выполнения программ на кластерах рабочих станций
- •2.7 Тестирование кластерного комплекса
- •Параллельная виртуальная машина
- •3 Кластерн ый вычислительн ый комплекс на основе пАраллельной виртуальной машины
- •3.1 Параллельная виртуальная машина
- •3.1.1 Общая характеристика
- •3.1.2 Гетерогенные вычислительные системы
- •3.1.3 Архитектура параллельной виртуальной машины
- •3.2 Настройка и запуск параллельной виртуальной машины
- •3.3 Структура каталога pvm
- •3.4 Тестирование параллельной виртуальной машины
- •На рисунке 3.2 представлена диаграмма, отображающая сравнение производительности коммуникационных библиотек mpi и pvm.
- •3.5 Сходства и различия pvm и mpi
- •4 . Кластерн ый вычислительн ый комплекса на основе программного пакета openMosix
- •4.1 Роль openMosix
- •4.2 Компоненты openMosix
- •4.2.1 Миграция процессов
- •4.2.2 Файловая система openMosix (oMfs)
- •4.3 Планирование кластера
- •4.4 Простая конфигурация
- •4.4.1 Синтаксис файла /etc/openmosix.Map
- •4.4.2 Автообнаружение
- •4. 5. Пользовательские утилиты администрирования openMosix
- •4. 6. Графические средства администрирования openMosix
- •4. 6.1 Использование openMosixView
- •4. 6.1.2 Окно конфигурации. Это окно появится после нажатия кнопки “cluster-node”.
- •4. 6.1.3 Окно advanced-execution. Если нужно запустить задания в кластере, то диалог "advanced execution" может сильно упростить эту задачу.
- •4.6.1.4 Командная строка. Можно указать дополнительные аргументы командной строки в поле ввода вверху окна. Аргументы приведены в таблице 9.2.
- •4. 6.2.2 Окно migrator. Этот диалог появляется, если кликнуть на каком-либо процессе из окна списка процессов.
- •4. 6.2.3 Управление удалёнными процессами. Этот диалог появляется при нажатии кнопки “manage procs from remote”
- •4.5.3 Использование openMosixcollector
- •4. 6.4 Использование openMosixanalyzer
- •4. 6.4. 1 Окно load-overview. Здесь отображается хронология нагрузки openMosix.
- •4. 6.4. 2 Статистическая информация об узле
- •4.5.4.3 Окно memory-overview. Здесь представляется обзор использования памяти (Memory-overview) в openMosixanalyzer.
- •4. 6.4.4 Окно openMosixhistory
- •4. 6.5 Использование openMosixmigmon
- •4.6 Список условных сокращений
- •Перечень ссылок
- •Общие сведения
- •2. Создание Windows-кластера
- •Суперкомпьютерная Программа "скиф"
- •Описание технических решений
- •Направления работ
- •Основные результаты
- •Кластер мгиу
- •Содержание
- •Понятие о кластере
- •Аппаратное обеспечение
- •Пропускная способность и латентность
- •1. Определение распределенной системы
- •2.1. Соединение пользователей с ресурсами
- •2.2. Прозрачность
- •Прозрачность в распределенных системах
- •2.3. Открытость
- •2.4. Масштабируемость
- •3.1. Мультипроцессоры
- •3.2. Гомогенные мультикомпьютерные системы
- •3.3. Гетерогенные мультикомпьютерные системы
- •4. Концепции программных решений рс
- •4.1. Распределенные операционные системы
- •4.2. Сетевые операционные системы
- •4.3. Программное обеспечение промежуточного уровня
- •5. Модель клиент-сервер рс
- •5.1. Клиенты и серверы
- •5.2. Разделение приложений по уровням
- •5.3. Варианты архитектуры клиент-сервер
- •Формы метакомпьютера
- •Настольный суперкомпьютер.
- •2. Интеллектуальный инструментальный комплекс.
- •Сетевой суперкомпьютер.
- •Проблемы создания метакомпьютера
- •Сегодняшняя архитектура метакомпьютерной среды
- •Взаимосвязь метакомпьютинга с общими проблемами развития системного по
- •5. Модель клиент-сервер рс
- •5.1. Клиенты и серверы
- •5.2. Разделение приложений по уровням
- •5.3. Варианты архитектуры клиент-сервер
- •Symmetrix десять лет спустя
- •Матричная архитектура
- •Средства защиты данных
- •Ревизионизм и фон-неймановская архитектура
- •Однородные вычислительные среды
- •Однокристальный ассоциативный процессор сам2000
- •Модели нейронных сетей
- •Модели инс
- •Оптимизационные системы.
- •Неуправляемые системы распознавания образов.
- •Системы feed forward.
- •Элементы нейрологики с позиции аппаратной реализации
- •Реализация нейронных сетей
- •Программные нейрокомпьютеры
- •Программно-аппаратные нейрокомпьютеры
- •Практическое использование инс
3. Длительность обслуживания заявок
Длительность обслуживания заявки равна промежутку времени, необходимому прибору (устройству) для обслуживания заявки. В общем случае — это случайная величина с законом распределения В() и математическим ожиданием (средним значением) . Типы заявок различаются либо законами распределения, либо только средними значениями длительности обслуживания при одинаковых законах распределения. При этом принимается предположение о независимости длительностей обслуживания для различных заявок одного типа, которое вполне справедливо для большинства реальных систем. Длительность обслуживания заявки процессором определяется временем выполнения соответствующей программы. В случае малой разветвленности программы, когда число выполняемых операций практически постоянно, длительность обслуживания может считаться постоянной и равной . В общем случае прикладные программы реализуют сложные алгоритмы с большим числом разветвлений. Количество операций, выполняемых в процессе обслуживания заявок одного типа, зависит от того, по какой ветви идет реализация алгоритма. В свою очередь путь реализации алгоритма определяется состоянием управляемого объекта, т. е. данными, поступающими в систему. При этом время выполнения программы рассматривается как случайная величина с математическим ожиданием и дисперсией D. Значения и D определяются путем статистической обработки многих прогонов программы на ЭВМ.
Гамма-распределение длительности обслуживания.
Если известны математическое ожидание * и дисперсия D*, то время выполнения программы, т. е. длительность обслуживания, аппроксимируется в общем случае гамма-распределением. Основанием для такой аппроксимации являются следующие свойства гамма-распределения:
1) гамма-распределение определяет случайную величину в области положительных значений; время обслуживания определено именно в этой области;
2) многие аналитические результаты получаются достаточно легко в случае, когда время обслуживания заявок распределено по этому закону;
3) гамма-распределение может рассматриваться как некоторое общее распределение, из которого путем изменения параметра могут быть легко получены другие виды распределений.
Гамма-распределение — это унимодальное распределение с плотностью вероятности
, >0, (7)
где — математическое ожидание длительности обслуживания; k — параметр распределения (k1); Г(k) — гамма-функция.
Математическое ожидание и дисперсия соответственно равны
.
Частный случай гамма-распределения при k=1 — это экспоненциальное распределение
,
а его предел при k соответствует постоянной длительности обслуживания заявок, равной ft, поскольку дисперсия гамма-распределения D[] стремится к нулю при неограниченном увеличении параметра k.
Выражение (7) представляет собой плотность вероятности для любых положительных значений параметра k, поэтому любым заданным значениям математического ожидания * и дисперсии D* может быть поставлено в соответствие распределение вида (7). При этом k = (*)2/D*.
Распределение длительности обслуживания по закону Эрланга.
При целочисленном k выражение (7) упрощается, поскольку
Г(k)=(k-1)!. в этом случае гамма-распределение вырождается в распределение Эрланга k-го порядка с математическим ожиданием . Такое распределение представляет собой распределение суммы k независимых случайных величин, каждая из которых распределена по экспоненциальному закону с математическим ожиданием /k.
Рис. 8. Нормированное распределение Эрланга
Форма распределения Эрланга приведена на рис. 8. В отличие от распределения Эрланга (6) математическое ожидание рассматриваемого распределения не зависит от k и всегда равно . Таким образом, при изменении параметра k изменяется форма распределения при неизменном математическом ожидании. При достаточно больших k(k>5) распределение (7) почти симметрично относительно . Кроме того, распределение Эрланга (6) при k стремится к нормальному, в то время как распределение Эрланга (7) приводит в пределе к детерминированному значению . Распределение (7) обычно называют нормированным распределением Эрланга.
Экспоненциальное распределение длительности обслуживания.
Если известно только среднее время выполнения программы и, следовательно, отсутствуют сведения о законе распределения, то время выполнения программы целесообразно аппроксимировать экспоненциальным распределением вида
. (8)
Данная аппроксимация справедлива, когда программа имеет достаточно большое число ветвей, по которым может развиваться вычислительный процесс, и вероятность развития процесса по коротким ветвям больше, чем по длинным. Даже если программа не имеет таких свойств, аппроксимация (8) целесообразна по следующим причинам:
1) использование экспоненциального распределения упрощает аналитические выкладки;
2) получаемые оценки являются предельными (например, время ожидания при других законах обслуживания, у которых коэффициенты вариации меньше единицы, оказывается не большим, чем при экспоненциальном).
Рис. 9. К определению времени дообслуживания заявки
Экспоненциальное распределение длительности обслуживания имеет следующее замечательное свойство. Если прибор занят обслуживанием заявки и длительность обслуживания распределена по экспоненциальному закону, то интервал времени от любого случайного момента времени до момента окончания обслуживания заявки имеет то же экспоненциальное распределение с тем же средним. Это свойство иллюстрируется рис. 9. Здесь tl и t2 — моменты начала и окончания обслуживания, длительность которого равна . Пусть t* — случайный момент времени, причем t1<t*<t2. Тогда длительность дообслуживания 2= t2 — t* распределена, так же как и , по закону (8) с тем же средним *. Из этого свойства следует, что при экспоненциальном законе обслуживания в случае прерывания время дообслуживания заявки является случайной величиной с тем же законом распределения, что и длительность обслуживания. Иначе говоря, процессы обслуживания и дообслуживания протекают одинаково. Это на первый взгляд парадоксальное свойство экспоненциального распределения —следствие отсутствия последействия, присущего всем процессам с экспоненциальным распределением интервалов времени.
Наряду со средней длительностью обслуживания используется понятие интенсивности обслуживания — величины, обратной средней длительности обслуживания
и характеризующей количество заявок, которое может быть обслужено в единицу времени.
Некоторые аналитические зависимости могут быть получены в общем виде для произвольного закона распределения времени обслуживания заявок. При этом для определения характеристик обслуживания заявок оказывается вполне достаточным знание нескольких первых моментов распределения времени обслуживания. В частности, при исследовании дисциплин обслуживания в ЦУС для определения среднего времени ожидания заявок необходимо задать кроме математического ожидания лишь второй начальный момент (2) времени обслуживания заявок.
4. Основные характеристики качества функционирования цифровых управляющих систем и закон сохранения времени ожидания
Характеристики ЦУС при одномерном потоке заявок. Одной из важнейших характеристик качества функционирования ЦУС (цифровых управляющих систем) является загрузка:
, (9).
где , — интенсивность поступления заявок в систему; — интенсивность обслуживания заявок.
Заменяя в (9) величиной 1/, получаем =. Значение определяет среднее число заявок, поступающих в систему за среднее время обслуживания одной заявки. Наряду с этим величина загрузки характеризует долю времени, в течение которого обслуживающий прибор занят обслуживанием заявок, и одновременно вероятность того, что в произвольный момент времени обслуживающий прибор работает (не простаивает). Покажем это следующими элементарными рассуждениями. Пусть рассматриваемая система функционирует в течение достаточно большого периода времени Т. Число заявок, поступивших в систему, равно в среднем Т, и они обслуживаются в среднем за время T, где — средняя длительность обслуживания. Тогда доля времени, в течение которого система была занята обслуживанием заявок
.
Поскольку загрузка определяет вероятность того, что система занята обслуживанием, т. е. работает, то вероятность простоя определяется значением =1—, называемым коэффициентом простоя. При этом предполагается, что <1, что справедливо для всех реальных систем.
Все время работы системы можно условно разбить на два интервала: интервал переходного режима работы системы от момента начала работы системы до момента входа в стационарный режим и интервал стационарного режима. Стационарным (установившимся) режимом называют такой режим работы, при котором вероятностные характеристики функциониррвания системы не зависят от времени. Условие существования стационарного режима определяется значением загрузки <1. Если >1, т.е. интенсивность поступления заявок превышает интенсивность их обслуживания, то работа системы характеризуется неограниченным возрастанием длины очереди заявок перед обслуживающим прибором, т.е. не существует стационарного режима работы системы. Случай равенства интенсивностей поступления заявок и их обслуживания (р=1) не тривиален и требует в каждом конкретном случае особого рассмотрения.
Качество функционирования ЦУС определяется временем пребывания заявок в системе, равным промежутку времени от момента поступления заявки в систему до момента окончания обслуживания ее в процессоре. Время пребывания u складывается из времени ожидания , когда заявка находится в очереди, и времени обслуживания ее в процессоре, т. е.
.
В общем случае время ожидания является суммой двух составляющих: времени ожидания начала обслуживания н, равного промежутку времени от момента поступления заявки в систему до момента, когда заявка в первый раз принимается на обслуживание, и времени ожидания в прерванном состоянии п, связанного с прерыванием обслуживания рассматриваемой заявки и ожиданием дальнейшего обслуживания:
.
Если обслуживание заявки не прерывается, то п=0 и = н.
При исследовании дисциплин обслуживания заявок в ЦУС время обслуживания не изменяется с изменением дисциплины. Следовательно, наряду со временем пребывания как характеристики качества функционирования ЦУС может использоваться время ожидания заявок в системе. Поскольку большинство результатов получено для времени ожидания, в дальнейшем в качестве основной характеристики функционирования ЦУС будем рассматривать время ожидания заявок, помня, что u=+. Остальные характеристики обслуживания заявок, такие, как средняя длина очереди и среднее число заявок в системе, связаны простыми соотношениями с временем пребывания и временем ожидания заявок.
Для систем с неограниченным ожиданием, когда поступившая заявка ожидает в очереди обслуживания сколь угодно долго, не покидая систему, средняя длина очереди связана со средним временем ожидания заявок зависимостью l=, где — интенсивность поступления заявок в систему. Это выражение становится очевидным, если учесть, что за время w в среднем поступает заявок, которые ожидают в очереди начала обслуживания.
Аналогичными рассуждениями можно получить выражение для среднего числа заявок в системе:
.
Среднее число заявок в системе больше средней длины очереди заявок на величину загрузки , которая в данном случае может рассматриваться как среднее число заявок, обслуживаемых в процессоре ЦУС. Действительно, в процессоре на каждый момент времени с вероятностью находится одна заявка на обслуживании и с вероятностью (1—) — нуль заявок (процессор простаивает). Поэтому среднее число заявок, обслуживаемых в процессоре, равно 1+(1-)0=.
Характеристики ЦУС при многомерном потоке заявок.
На вход обслуживающего прибора может поступать многомерный поток заявок с интенсивностью 1,. . ., М, состоящий из заявок типа 1, . . ., М. Тогда загрузка прибора потоком заявок типа i будет составлять i=ii, где i — средняя длительность обслуживания заявок типа i.
Суммарная (общая) загрузка прибора со стороны всех потоков
В этом случае условие существования стационарного режима представляется в виде R<1 и коэффициент простоя прибора =1—R. Остальные характеристики обслуживания в случае многомерного потока определяются для каждого потока аналогичным образом и для заявок типа i равны ui=i+i, li=ii, ni=iui, . Среднее время ожидания ср и пребывания uср одной заявки из суммарного потока в системе:
где i/ — вероятность того, что поступившая заявка является заявкой типа i; — среднее число заявок всех типов, находящихся в очереди (или в очередях в случае нескольких очередей); — среднее число заявок всех типов в системе
( — суммарная загрузка системы, которая в данном случае определяет среднее число заявок, обслуживаемых в процессоре).
Закон сохранения времени ожидания.
При изменении дисциплины обслуживания время ожидания заявок в очередях сокращается для одних типов заявок за счет увеличения времени ожидания заявок других типов. Л. Клейнрок показал [38], что для систем с одним обслуживающим прибором выполняется закон сохранения времени ожидания: для любой дисциплины обслуживания
(10)
т. е. инвариантна относительно дисциплины обслуживания. Здесь i—загрузка прибора; i — среднее время ожидания в очереди заявок типа i = l, ..., М.
Закон (10) справедлив, если система отвечает следующим требованиям:
1) отсутствие отказов в обслуживании, т. е. все заявки на обслуживание удовлетворяются;
2) система обслуживания простаивает лишь в том случае, когда на ее входе нет заявок на обслуживание;
3) при наличии прерываний длительность обслуживания описывается экспоненциальным распределением;
4) все входные потоки описываются независимыми пуассоновскими распределениями, и длительность обслуживания не зависит от входных потоков.
Значение константы в (10) можно определить следующим образом. Простейшей является дисциплина обслуживания заявок в порядке их поступления, для которой среднее время ожидания заявок различных типов одинаково и равно
где i(2) — второй начальный момент длительности обслуживания заявок типа i=l,...,М.
С учетом этого закон (10) можно записать в виде
(11)
Закон сохранения времени ожидания универсален и справедлив для всех дисциплин, обслуживания заявок, удовлетворяющих указанным требованиям. Его можно использовать для оценки достоверности приближенных результатов, полученных при анализе сложных дисциплин обслуживания и проведении статистического моделирования.