Добавил:
Upload Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:
Глава 5 зад.doc
Скачиваний:
7
Добавлен:
11.11.2019
Размер:
734.72 Кб
Скачать

143

5 Другие меры информации

5.1 Информация по Кульбаку

Определение. Свойства. Пусть наблюдаемый сигнал Y описывается системой непрерывных случайных величин , которые при гипотезе H1 имеют совместную плотность вероятности , а при гипотезе Н2 – плотность . Тогда логарифм отношения правдоподобия

(5.1.1)

называется информацией для различения в пользу Н1 против Н2, содержащейся в выборке . Эта величина случайна, так как значение выборки неизвестно до опыта.

В качестве гипотез Н1 и Н2 могут выбираться любые предположения, в том числе такие:

Н1 – «переданное значение сообщения равно х1»,

Н2 – «переданное значение сообщения равно х2 ».

Математическое ожидание случайной величины (5.1.1) при условии, что справедливо предположение Н1,

(5.1.2)

называется средней информацией для различения в пользу Н1 против Н2.

Аналогично величина

(5.1.3)

называется средней информацией для различения в пользу Н2 против Н1.

Сумма (5.1.2) и (5.1.3)

(5.1.4)

называется информационным расхождением между гипотезами Н1 и Н2.

Формулы (5.1.1) – (5.1.4) можно использовать и для вычисления информации, содержащейся в системе дискретных случайных величин Y. При этом следует вместо плотностей вероятностей подставить соответствующие вероятности, а интегрирование заменить суммированием по всем возможным значениям системы дискретных случайных величин.

Перечислим основные свойства:

  1. Выпуклость.

(5.1.5)

Неравенства обращаются в равенства тогда и только тогда, когда Y не зависит от Н, т. е.

2) Аддитивность.

Если подсистемы случайных величин и независимы при каждой из гипотез, т. е.

(5.1.6)

то информация, содержащаяся в системе , равна сумме информаций, содержащихся в подсистемах.

Неравенство для ошибок первого и второго рода. Рассмотрим задачу проверки гипотез. Пространство всех возможных значений сигнала разбиваем на две непересекающиеся части: Е1 и Е2. Если выборка y попала в область Е1, то считаем, что справедлива гипотеза Н1, в противном случае принимаем гипотезу Н2. При использовании такого правила решения возможны ошибки двух видов.

1) Ошибка первого рода.

Если справедливо предположение Н1 (сигнал Y имеет плотность вероятности , но в результате опыта выборочное значение y попало в область Е2 и, следовательно, была принята гипотеза Н2, то возникает ошибка первого рода (неправильное отклонение гипотезы Н1).

2) Ошибка второго рода.

Если справедливо предположение Н2, но выборочное значение y попало в область Е1 и была принята гипотеза Н1, то возникает ошибка второго рода.

Вероятность ошибки первого рода

(5.1.7)

есть вероятность попадания y в область Е­2 при условии, что y имеет распределение W1(y).

Вероятность ошибки второго рода

(5.1.8)

есть вероятность попадания y в область Е1 при условии, что y имеет распределение W2(y).

Вероятности ошибок первого и второго рода связаны с информационными мерами Кульбака следующими неравенствами:

(5.1.9а)

(5.1.9б)

Неравенства обращаются в равенства тогда и только тогда, когда плотности вероятности W1(y) и W2(y) таковы, что

(5.1.10а)

для всех у из области Е1 и

(5.1.10б)

для всех у из области Е2, где С1 и C2 – некоторые постоянные.

Задав конкретные значения и , по (5.1.9) можно проверить, являются ли эти значения принципиально достижимыми при заданных вероятностных свойствах сигнала Y. Таким образом, зная информационные характеристики сигнала, по (5.1.9) можно вычислить предельные, потенциальные значения вероятностей ошибок первого и второго рода.

Критерий Неймана-Пирсона. Найден оптимальный метод различения гипотез Н1 и Н2, который при заданной вероятности ошибок первого рода обеспечивает минимальную вероятность ошибки второго рода. Такое правило называется критерием Неймана-Пирсона и основано на сравнении логарифма отношения правдоподобия с порогом С, который выбирается таким образом, чтобы обеспечить требуемую величину . Область Е1 состоит из тех значений Y, для которых справедливо неравенство

(5.1.11)

Таким образом, гипотеза Н1 принимается только в том случае, когда величина информации в пользу Н1 против Н2, содержащейся в выборке y, больше заданной величины С. В противном случае Н1 отвергается и принимается гипотеза Н2.