- •В.Г. Шахов основы информационных технологий
- •Введение
- •Глава 1 Теоретические основы информационных технологий
- •1.1. Теория сигналов и спектральный анализ
- •1.2. Управление колебаниями
- •1.3. Теория информации
- •1.4. Дискретизация и квантование
- •Глава 2 Сжатие информации
- •2.1. Адаптивная дискретизация, разностная и дельта-модуляция.
- •2.2. Статистическое сжатие
- •2.3 Сжатие динамического диапазона.
- •2.4. Эффективное кодирование
- •2.5. Модификации кодов Хафмана
- •2.6. Алгоритмы Лемпеля – Зива
- •2.7. Сжатие графических изображений
- •2.8. Видеостандарт mpeg
- •Глава 3 Многоканальная передача и уплотнение линий связи
- •3.1. Сравнение и анализ основных методов разделения каналов
- •3.3. Адресное разделение каналов
- •3.4. Разделение каналов на основе псевдослучайных последовательностей
- •3.5. Комбинированное разделение каналов
- •Глава 4 Случайные процессы и их приложения
- •4.1. Основы теории случайных событий и величин
- •4.2 Основы теории случайных процессов
- •Глава 5 Основы цифровой обработки сигналов
- •5.1. Дискретные экспоненциальные функции (дэф)
- •5.2. Быстрое преобразование Фурье (бпф)
- •5.3. Применение теории чисел в цифровой обработке сигналов
- •5.5. Основы цифровой фильтрации
- •Глава 6 Борьба с помехами
- •6.1. Энергетические методы
- •6.2. Методы импульсной модуляции гармонической несущей
- •6.2. Простейшие методы приема импульсных сигналов
- •6.3. Помехоустойчивый прием модулированных колебаний при импульсной огибающей
- •6.3.1 Некогерентный ам-прием
- •6.3.2 Когерентный чм-прием
- •.3.3 Когерентный фм-прием.
- •6.4.Корректирующие коды.
- •6.4.1. Основные определения корректирующих кодов.
- •6.4.2. Алгебраические коды
- •6.4.3. Матричная запись линейных корректирующих кодов
- •6.4.4. Коды Рида - Маллера I рода
- •6.4.5. Полиномиальные коды
- •6.4.6. Итеративные коды
- •6.5. Непрерывные коды
- •6.5.1. Рекуррентные коды
- •6.5.2 Сверточное кодирование
- •6.5.3. Каскадные коды
- •6.5.4. Нелинейные коды
- •6.6. Системы с обратными связями
- •6.7. Комплексные решения помехоустойчивого приема.
- •Глава 7 Пример расчета параметров информационной системы
- •7.1. Основные сведения о системах телеизмерения
- •7.2. Содержание курсовой работы и исходные данные
- •7.3. Определение полосы занимаемых частот и построение спектральной диаграммы
- •7.3.1 Определение периода опроса
- •7.3.2. Определение верхней частоты спектра импульсной последовательности
- •7.3.3. Варианты модуляции
- •7.3.4. Выбор несущих и построение спектральной диаграммы
- •7.4. Определение максимального уровня помех в канале связи
- •7.4.1. Помехоустойчивость передачи импульсно-модулированных сигналов
- •7.4.2. Помехоустойчивость передачи кодовых посылок
- •7.5. Определение количества информации одного сообщения и скорости передачи информации.
- •7.6. Вычисление эффективности передачи
- •Заключение по курсовой работе
- •Общее заключение по учебному пособию
- •Библиографический список
- •Содержание
- •Глава 7 278
Глава 4 Случайные процессы и их приложения
4.1. Основы теории случайных событий и величин
В стандартном курсе высшей математики раздел теории вероятности излагается в трех частях: случайные события, случайные величины и случайные функции. Классическое изложение с математических позиций имеет серьезный изъян: оно не привязано к практике. Кроме того, в образовательном стандарте приводятся рекомендации в основном по первым двум разделам, хотя на практике важен третий, а именно случайные процессы.
Существует множество работ отечественных и зарубежных авторов, посвященных теории вероятности и ее приложениям. Наибольшую практическую значимость и адаптированность имеют работы Е.С. Вентцель, Г.Я. Мирского, Дж. Бендата, А. Пирсола, Б.Р. Левина, В.И Тихонова, Я.И. Хургина, А.М. Заездного.
В классической теории вероятности существует две основных гипотезы: однородности и независимости наблюдений.
Однородность предполагает независимость результатов опытов от времени их проведения. Классический пример – рулетка. Результат не зависит от времени суток, дня, недели, сезона и т.д.
Независимость означает, что каждый следующий опыт (эксперимент) не зависит от результатов предыдущих.
На практике гипотезы однородности и независимости должны подтверждаться экспериментально. В связи с этим в прикладной теории вероятностей существуют алгоритмы доказательств этих гипотез.
В дальнейшем изложении используем теорию кибернетики, согласно которой любое наблюдаемое явление (процесс) можно представить в виде «черного ящика»:
|
|
а) |
б) |
Рис. 4.1. Модели исследования объектов
где О – объект наблюдения (черный ящик), Н – наблюдатель. По первой модели (а), наблюдатель не имеет возможности воздействия на объект и просто накапливает статистику; по второй (б) – есть возможность активного влияния на объект.
С позиций теории вероятности, первые два раздела отличаются способом реализации или интерпретации объекта. В первом случае объект имеет два устойчивых состояния: 0 или 1. В таком варианте неважно, какой объект мы используем, важны лишь внешние описания. Второй вариант предполагает активное воздействие на объект с использованием обратной связи.
Теория случайных величин предполагает, что объект находится в одном из состояний, 0 или 1, причем пребывание объекта в этих состояниях случайно. Время в данном случае не входит в число аргументов. Как правило, в математике используют обе вышесказанные теории и принимают следующие определения. Допустим, произведено независимых опытов, удовлетворяющих обеим гипотезам. При этом количество опытов, приводящих объект в состояние 0, равно , в состояние 1 – . тогда вероятность выходного состояния определяется соотношением:
. |
(4.1) |
Аналогично противоположное состояние
. |
(4.2) |
Удачно предложенные концепции предполагают соотношения:
; . |
(4.3) |
Приведенные соотношения (4.2) (4.3) позволяют судить о взаимосвязанных событиях.
В теории случайных событий часто используются графические аналогии в виде диаграмм Эйлера-Венна [33]. При этом полная (генеральная) сетка событий первого типа оценивается формулой (4.1) и его альтернативой типа (4.2). Общая совокупность из опытов представляется в виде прямоугольника (полная группа событий), вероятности и – в виде кругов Эйлера-Венна (рис. 4.2).
Рис. 4.2. Вероятностная интерпретация событий
Здесь – полное множество возможных исходов, – исходы типа 1, – исходы типа 0. Существует зона неопределенности , в которой нельзя принять решений.
В соответствии с формулами (4.2) и (4.3) и кругами Эйлера-Венна справедливы следующие математические соотношения:
; |
(4.4) |
. |
(4.5) |
Последнее выражение имеет название формулы Байеса [7] для независимых событий. В случае зависимых событий в алгебраической форме выражение (4.5) приобретает вид:
. |
(4.6) |
Здесь и образуют совокупность двух событий, причем является вероятностью события , – вероятность совместного события, а – условная вероятность того, что событие состоялось.
Выражения (4.5) и (4.6) являются краеугольными в области теории вероятности.
Перейдем теперь к теории случайных величин. Можно обратиться к моделям на рис. 4.1 при условии, что выходная величина непрерывна. Например, мы изучаем скорость движения поезда. На нее влияет множество ограничений: тип поезда, состояние пути, временные ограничения по скорости, метеоусловия, соседние поезда и т.д. Общая совокупность ограничений образует достаточно сложную картину, в ходе которой результирующая скорость приобретает характер случайной величины. Основная функция, описывающая поведение случайной величины, – плотность распределения вероятности.
Для исследования любой случайной величины необходима последовательность действий, представленная на рис. 4.3.
Рис. 4.3. Исследование непрерывного объекта
Здесь АЦП – аналого-цифровой преобразователь, Рег – регистратор событий. Не усложняя процедуры, будем считать, что последовательность считывания значений равномерна с шагом . Тогда за время (время реализации) мы получим отсчетов, причем . Разобьем интервал возможных значений на подынтервалов. В этом случае можно фиксировать количество попаданий в -й интервал как или в относительной форме как . Полученная зависимость называется гистограммой распределения вероятности и графически представляется в следующей форме:
Рис. 4.4. Гистограмма распределения
Здесь - ширина подынтервала, - относительная частота попадания в него:
. |
(4.7) |
Предположим, значение неограниченно уменьшается, а количество подинтервалов при этом возрастает. При этом получается оценка, сформулированная Л. Эйлером [7] и приобретающая свойства гладкой функции . Функция впоследствии получила название плотности распределения вероятности. Это фундаментальное определение, на котором держится базовая теория. Приведем основные свойства плотности распределения.
1. Условие нормировки. Исходя из соотношения (1.8), очевидно, что:
, |
(4.8) |
откуда следует, что сумма наблюдений равна генеральной совокупности. Следовательно, справедлива формула:
, |
(4.9) |
или в интегральной форме
. |
(4.10) |
Условие нормировки является фундаментальным и наиболее очевидным в теории вероятности. Действительно, вероятность принятия случайной величиной любого из возможных значений достоверна, т. е. равна 1, что и выражается формулами (4.9) и (4.10).
2. Положительная определенность. На любом интервале функция неотрицательна. Это вытекает из первого свойства. Так как вероятность не может быть отрицательной по определению, а она оценивается интегралом от плотности распределения:
, |
(4.11) |
то на любом интервале должен быть положительный результат.
В результате перехода к непрерывной величине получаем гладкую кривую, представленную на рисунке 4.5
Рис. 4.5. Плотность распределения вероятностей
На практике существует конечное множество типичных распределений случайных величин. Наиболее полный их перечень приведен в книге А.Н. Заездного [12].
Среди всех возможных распределений наиболее значимо нормальное распределение, описываемое выражением:
, |
(4.12) |
Здесь и – математическое ожидание и дисперсия случайной величины, определения которых будут даны позже.
Нормальное распределение является базовым вследствие центральной предельной теоремы Ляпунова [17]. Согласно теореме, если в результирующей случайной величине участвуют четыре о более независимых составляющих, то результирующее распределение нормально.
Второе распределение, используемое на практике, – равномерное. Для него существует следующее определение. Предположим, на интервале функция существует, а вне этих значений равна нулю. Учитывая условие нормировки, получаем:
. |
(4.13) |
|
|
Рис. 4.6. Равномерное распределение
Равномерное распределение считается наиболее жестким для практических приложений, так как здесь абсолютно не сглаживаются исходы случайных выборок. Такая жесткая модель используется, например, в теории систем массового обслуживания (СМО). При моделировании таких систем наиболее важны критические ситуации, а хуже, чем равновероятные события, в этом смысле нет.
Исследование случайных величин производится в следующей последовательности:
1. Накапливаются статистические данные методов наблюдения за объектом и получение отсчетов с интервалом . При этом по умолчанию предполагается, что соседние отсчеты независимы.
2. Строится гистограмма распределения
3. Проводится аппроксимация гистограммы к одному из канонических распределений на основе критериев согласия. Один из таких критериев, – критерий согласия Пирсона относится к нормальному распределению и является наиболее употребляемым. Его легко можно обобщить на любое типовое распределение по следующему алгоритму:
4. Накапливается совокупность из N дискретных и желательно независимых отсчетов .
5. Выбирается аппроксимируемая функция , к которой может приближаться полученная гистограмма распределения.
6. Производится оценка качества аппроксимации методом суммирования разностей гладкой функции и совокупности отсчетов:
. |
(4.14) |
7. Выбирается критерий согласия в виде константы М, относительно которой справедливы следующие утверждения:
– если ,гипотеза является состоятельной;
– если , гипотеза отвергается.
Это сценарий «жестких решений». В настоящее время большой популярностью пользуется метод мягких решений, или метод нечетких множеств. Согласно методу вводится интервал неопределенности , в соответствии с которым алгоритмы оценивания приводятся к виду:
– если , гипотеза состоятельна;
– если , гипотеза отвергается;
– если , гипотеза не определена, и необходимо дополнительное исследование.
Проиллюстрируем сказанное графическими изображениями. На рис. 4.7 представлены гистограмма распределения случайной величины и аппроксимирующая функция. Применяя формулу (4.14), мы можем использовать критерий жестких решений или нечетких множеств. Последнее относится к теории обучающихся систем и имеет более высокую производительность. Такие системы и алгоритм являются основой так называемых интеллектуальных систем (искусственный интеллект, ИИ).
Рис. 4.7. Оценка качества аппроксимации
Возможны более сложные многомерные распределения, когда случайная величина зависит от двух и более аргументов. В этом случае рассматриваются функции , и т.д. В частности, двумерная плотность распределения представляет поверхность, как показано на рис. 4.8. По этой поверхности можно проводить сечения по трем координатам, и . В первых двух случаях в сечении получается одномерная плотность распределения при фиксированной второй координате, т. е. или – условные плотности распределения. В третьем случае образуется двумерная фигура, т. е. некоторый эллипс распределения.
Рис. 4.8. Двумерная плотность распределения
На практике описание ситуации пытаются упростить. Один из вариантов упрощения – сведение многомерных функций распределения к функциям меньшего порядка. Простейший вариант упрощения – те же формулы Байеса. Для рассмотренного нами варианта функции двух случайных аргументов можно записать:
. |
(4.15) |
Это и есть распространение формулы Байеса на случайные величины.
Даже в случаях одномерных распределений, близких к типичным, появляются дополнительные проблемы, в том числе вычислительные. В таких случаях переходят к числовым характеристикам случайных величин. Они образуют два семейства: начальные и центральные моменты. Начальный момент порядка определяется из выражения:
|
(4.16) |
|
|
или в дискретной форме:
|
(4.17) |
Центральный момент -го порядка определяется из соотношения:
|
(4.18) |
или в дискретной форме:
|
(4.19) |
Наиболее значимы начальный момент первого порядка, называемый математическим ожиданием, и центральный момент второго порядка – дисперсия. Математическое ожидание эквивалентно среднему значению случайной величины, а дисперсия – разбросу относительно математического ожидания. Математическое ожидание имеет вид:
(4.20) |
Соответственно выражения для дисперсии запишутся в виде:
(4.21) |
Приведенные соотношения проиллюстрируем графически. На рис. 4.9 приведены плотности распределения вероятностей для двух различных вариантов. Вариант соответствует различным математическим ожиданиям, – различным дисперсиям.
|
|
а) |
б) |
Рис. 4.9. Варианты распределений
Из рисунка видно, что , а .
Как правило, этих числовых оценок достаточно для множества практических приложений. Иногда для частных задач используются другие числовые оценки. Назовем наиболее употребимые.
Мода – значение случайной величины, при которой плотность распределения имеет максимум:
(4.22) |
На рис. 4.10 приведён пример плотности распределения. Здесь же приведено значение математического ожидания, из чего следует, что при несимметричных распределениях мода и математическое ожидание не совпадают.
Рис. 4.10. К определению моды
Возможны распределения с несколькими максимумами. Они называются полимодальными. Пример полимодального распределения приведён на рис. 4.11.
Рис. 4.11. Полимодальное распределение
Кроме этого существуют так называемые антимодальные распределения.
Рис. 4. 12. Антимодальное распределение
В качестве примера приведем задачу о случайном выборе точки на гармоническом сигнале (см. рис. 4.13). Без приведения математических выкладок запишем окончательный результат. Плотность распределения вероятности такой случайной величины равна:
. |
(4.23) |
|
|
Рис. 4.13. Случайные выборки на гармоническом сигнале
Такое распределение имеет название закона арксинуса и плотность распределения для него:
. |
(4.24) |
|
|
Другая количественная оценка – медиана. Это такое значение случайной величины, при котором её вероятности слева и справа от нее равновероятны:
(4.25) |
В интегральной форме соотношение (4.25) принимает вид:
(4.26) |
Если распределение симметрично, то медиана совпадает с математическим ожиданием, что иллюстрируется рис.4.14. Заштрихованные области равны по площади, составляющей 0,5.
Рис. 4.14. К определению медианы
Центральный момент третьего порядка называется асимметрией. Он характеризует отклонение распределения от нормального. Выражение для асимметрии имеет вид:
(4.27) |
На рис. 4.15 показаны два типа асимметричных распределений. Левое, со знаком «+», соответствует положительной асимметрии, правое – отрицательной.
Рис. 4.15. К определению асимметрии
Еще одна количественная оценка – эксцесс. Это степень отличия распределения от нормального. В нормированном виде он представляет собой центрированный момент четвертого порядка:
(4.28) |
«Довесок» – 3 в формуле (4.27) означает, что центральный момент четвертого порядка для нормального распределения равен 3.
Другие моментные характеристики обычно не используются.
Второй вид функций, описывающих распределения случайных величин, – функции распределения . Функция распределения от аргумента – это вероятность случайной величины попасть в полубесконечный интервал :
(4.29) |
В связи с такой трактовкой можно описать свойства функции распределения.
1. Положительная определенность. Для любых значений неотрицательна:
(4.30) |
Положение (4.30) доказывается методом от противного. Предположим, что на некотором интервале значения отрицательны. Тогда в соответствии с (4.30) появляется возможность отрицательной вероятности, что противоречит определению.
2. Ограниченность. В соответствии с определением вероятность не может превосходить 1. Поэтому справедливы следующие ограничения:
(4.31) |
3. Интервальность. Вероятность попадания случайной величины в интервал определяется в виде разности функций распределения:
(4.32) |
В связи со свойствами существуют взаимно однозначные соотношения:
(4.33) |
На практике предпочитают плотность распределения вместо функции распределения. Это определяется лучшей визуальной информативностью функции , т.к. основные свойства видны сразу: мода, математическое ожидание, асимметрия и дисперсия «прощупываются» на основе графического образа распределения. Также на практике достаточно беглого оперативного сравнения различных случайных величин.