- •Вопрос 2.
- •Часть 1.Количественная мера информации для равновозможных событий
- •Часть 2. Мера р. Хартли
- •Вопрос 3.
- •Вопрос 4.
- •Вопрос 5.
- •Вопрос 6. Свойства энтропии источника дискретных сообщений
- •Вопрос 7. Энтропия источника совместных сообщений
- •Вопрос 8. Что такое условная энтропия?
- •Вопрос 9.
- •Вопрос 10. Свойства количественной меры информации при неполной достоверности результатов опыта.
- •Вопрос 11. Вычисление количественной меры информации для двоичного канала с помехами.
- •Вопрос 12. Как оценивается избыточность источника сообщений?
- •Вопрос 13.
- •Вопрос 23.
- •Вопрос 24. Приведите модель двоичного канала с шумами
- •Вопрос 25.
- •Вопрос26. Формула Шеннона для аналогового канала с шумами.
- •Вопрос 27. Энтропия источника при наличии коррелятивных связей между двумя соседними символами
- •Вопрос 28. Принципы помехоустойчивого кодирования. Кодовое расстояние.
- •Вопрос 29. Вероятность ошибочного приема кодовой информации для простого двоичного кода и для кода с исправлением ошибок кратности t.
- •Вопрос 30. Простейшие избыточные коды.
- •Вопрос 31. Групповой код Хемминга. Принципы построения. Синдром ошибки. Коды с обнаружением и исправлением ошибок. Код хемминга
- •Вопрос 32. Определение числа проверочных элементов.
- •Вопрос 33. Определение проверочных элементов, входящих в каждую группу. Исправляющая способность кода хемминга
Вопрос 7. Энтропия источника совместных сообщений
Возьмем два ансамбля событий: , который представляется (1.4)
, и , описываемый как
. (1.11)
Будем рассматривать совместные (происходящие вместе) события и . Все возможные пары могут рассматриваться как элементы нового объединенного ансамбля . В качестве примера совместных событий и можно отметить состояния и , формируемые в r- и s-разрядных регистрах, широко используемых в информационных системах. При этом число состояний r-разрядного регистра составит , а s-разрядного – . Каждому из состояний регистров с помощью логических дешифраторов можно привести в соответствие двоичные сигналы (события) () и (). Все возможные пары и могут быть реализованы с использованием двухвходовых логических элементов «И» (конъюнкторов). Таким образом, на выходах этих логических элементов получим двоичных сигналов (сообщений), которые можно рассматривать как элементы нового ансамбля .
Объединенный ансамбль таких сообщений представим в виде
|
… |
|||
|
… |
|||
… |
||||
|
|
|
|
|
… |
Ансамбль может рассматриваться как некий новый, в котором возможны различных состояний (событий) с заданным распределением вероятностей .
Энтропия такого ансамбля, т.е. энтропия исхода совместных событий , может быть получена по аналогии с энтропией (1.8) в следующем виде:
. (1.12)
Известно, что вероятность совместного события равна произведению вероятности одного события на условную вероятность другого события, при условии, что произошло первое событие [3]
, (1.13)
где – вероятность события при условии, что произошло событие (условная вероятность ), – условная вероятность .
Проделав подстановку (1.13) в (1.12) и соответствующие преобразования, получим
. (1.14)
Вопрос 8. Что такое условная энтропия?
Для условных вероятностей известно, что [3], тогда выражение (1.14) с учетом (1.8) можно привести к виду
, (1.15)
где . (1.16)
Здесь будем называть условной энтропией ансамбля . Условную энтропию структурно можно рассматривать как математическое ожидание частных условных энтропий ансамбля . Следовательно, условная энтропия равна среднему значению частных условных энтропий и характеризует неопределенность исхода событий при известных событиях :
.
Легко видеть, что условная энтропия , так же как энтропии и , – величина положительная, т.е. .
Обратим внимание на то, что формула (1.13) для вероятности совместных событий, по сути, имеет две формы записи. Используя это, нетрудно представить и энтропию совместных событий в двух видах:
. (1.17)
Вопрос 9.
Определение количества информации источника дискретных сообщений при неполной достоверности результатов опыта
Как уже отмечалось, информация о том или ином событии или факте добывается всегда в результате целенаправленного опыта, причем после опыта ситуация оказывается не всегда полностью определенной, и мы не можем с полной достоверностью утверждать, какое именно событие имело место. Требуется определить количество информации, приходящееся в среднем на один опыт, когда полная достоверность его исхода отсутствует.
Пусть интересующие нас события или факты составляют ансамбль (1.4) (переданные сообщения)
,
а результаты опыта, на основе которых мы выносим суждение об исходе событий , составляют ансамбль (1.11) (принятые сообщения)
.
Обозначим через вероятность того, что при известном исходе опыта имело место событие . Если, например,
(1.18)
то в результате опыта ситуация полностью определена, и мы можем с полной достоверностью утверждать, какое событие (сообщение) имело место. Так как неопределенность исхода событий до опыта равна , а после опыта неопределенность отсутствует, то в этом случае
(1.19)
где – количество информации, содержащееся в среднем в опытах относительно интересующих нас событий .
В более общем случае, когда для различных , после опыта сохранится неопределенность, которая, очевидно, приведет к уменьшению количества информации (1.19).
Количество информации, содержащееся в опыте относительно событий , которое назовем частной мерой количества информации при ее неполной достоверности, можно определить по формуле (1.2) как
. (1.20)
Здесь условная вероятность определяет послеопытную вероятность .
Количественная мера информации (1.19) по аналогии с другими мерами будет представлять в данном случае усреднение частных мер количества информации (1.20) при неполной достоверности результатов опыта:
. (1.21)
С учетом соотношений (1.13), соответствующих подстановок и преобразований, используемых в (1.14), из выражения (1.21) получим
откуда находим (с учетом условия ) количество информации, в среднем приходящееся на один опыт при его неполной достоверности,
, (1.22)
где – условная энтропия, характеризующая потерю информации из-за недостоверности результатов опыта.
Учитывая две формы записи (1.13) вероятности совместных событий для введенной меры количества информации, наряду с (1.22) нетрудно получить дополнительные формы:
, (1.23)
которые могут использоваться при вычислении количества информации.