- •25. Доверительные интервалы для оценки среднего квадратического отклонения нормального распределения.
- •26. Элементы теории корреляции.
- •27. Статистические гипотезы. Ошибки первого и второго рода.
- •28. Статистический критерий нулевой гипотезы.
- •29. Отыскание критических областей. Мощность критерия.
- •30. Сравнение двух дисперсий нормальных генеральных совокупностей.
- •31. Сравнение выборочной средней с гипотетической генеральной средней нормальной совокупности.
- •32. Проверка гипотезы о значимости выборочного коэффициента корреляции.
- •33. Сравнение двух средних нормальных генеральных совокупностей, дисперсии которых известны.
- •34. Цепь Маркова. Основные понятия.
- •35.Элементы теории конечных однородных цепей Маркова.
- •36. Случайные функции. Основные понятия.
- •37. Корреляционная теория случайной функции.
- •38. Математическое ожидание случайной функции.
- •Свойства математического ожидания
- •39. Дисперсия случайной функции, ее среднее квадратическое отклонение.
- •Свойства дисперсии
- •40. Корреляционная функция случайной функции.
- •Свойства корреляционных функций
- •41. Нормированная корреляционная функция случайной функции.
- •Свойства нормированной корреляционной функции
- •42.Взаимная корреляционная функция. Нормированная взаимная корреляционная функция
- •Свойства
- •43. Характеристики суммы случайных функций.
- •Стационарная случайная функция.
- •Корреляционная функция стационарной случайной функции. Стационарно связанные случайные функции.
- •Свойства корреляционной функции стационарной случайной функции
34. Цепь Маркова. Основные понятия.
Цепью Маркова называется последовательность независимых испытаний, в каждом из которых появляется одно из K несовместных событий А1, А2, …, АК, образующих полную группу. Причем условная вероятность Pij(S) того, что в S-том испытании наступит событие Aj (j=1, ...,K) при условии, что в (S-1) испытании наступило событие Ai (i=1, …, K) не зависит от результатов предшествующих испытаний.
Заметим, что независимые испытания являются частным случаем цепи Маркова. Действительно, если испытания независимы, то появление одного события в каком-то испытании не зависит от результатов предшествующих событий, следовательно, цепь Маркова является обобщением понятия независимых испытаний.
Пусть некоторая система в каждый момент времени находится в одном из K состояний. Тогда события называются состояниями системы, а испытания называются изменениями состояний.
Цепью Маркова называется последовательность испытаний, в каждом из которых система находится в одном из K состояний, причем условные вероятности Pij(S) того, что в S-том испытании система будет находиться в состоянии j при условии, что в (S-1) испытании система находилась в состоянии i не зависит от результатов ранее произведенных испытаний.
Цепью Маркова с дискретным временем называется цепь, изменение состояний которой происходит в отдельные фиксированные промежутки времени.
Цепью Маркова с непрерывным временем называется цепь, изменение состояний которой происходит в любые возможные промежутки времени.
Однородной цепью Маркова называется цепь Маркова, в которой условная вероятность Pij(S) перехода системы из состояний i в j не зависит от номера проведенного испытания.
35.Элементы теории конечных однородных цепей Маркова.
Условной вероятностью Рij(S)=pij называется условная вероятность того, что система из состояния i переходит в состояние j в результате следующего испытания. Таким образом, в обозначении Pij первый индекс обозначает положение системы в результате какого-то испытания, а второй индекс — положение системы в результате следующего испытания.
Пусть число состояний конечно и равно k .
Матрицей перехода системы называют матрицу, которая содержит все переходные вероятности данной системы.
P =
Поскольку каждая строка содержит переходные вероятности, образующие полную группу, то сумма этих вероятностей равна 1: p11+p12+…+p1k=1. Следовательно, суммы вероятностей в каждой строке матрицы равны 1:
Обозначим через Pij(n) вероятность того, что система переходит из состояния i в состояние j за n шагов.
Заметим, что вероятность перехода за один шаг равна переходной вероятности Pij(1)=pij и определим вероятность Pij(n). Для этого введем понятие промежуточного состояния между i и j. Это состояние r. Тогда получим, что система переходит из состояния i в состояние r за m шагов с вероятностью Pir(m), а затем переходит из состояния r в состояние i за (n-m) шагов с вероятностью Prj(m-n). Тогда по формуле полной вероятности:
Pij(n)= — равенство Маркова
Покажем, что зная Pij(1)=pij , то есть зная матрицу перехода P1, мы можем получить Pij(2), тем самым получив матрицу P2. Зная матрицу P2 можем получить Pij(3) и так далее Pij(n).
Возьмем в равенстве Маркова n=2, m=1. Тогда Pij(2)=
Следовательно, P2=P1* P1=
Аналогичным образом, если n=3, а m=2: Тогда Pij(3)=
P3=P1* P2= Следовательно: Pn=
Пример:
=
— ?
=
* =