- •1. Основные определения
- •2. Этапы обращения информации
- •3. Понятие сигнала и его модели
- •4.Формы представления детерминированных сигналов.
- •5. Представление сигнала в виде взвешенной суммы базисных функций. Понятие дискретного спектра сигнала и спектральной плотности
- •6. Ортогональное представление сигналов.
- •7.Временная форма представления сигнала
- •8.Частотная форма представления сигнала
- •9.Спектры периодических сигналов.
- •10.Распределение энергии в спектре.
- •11.Спектры непериодических сигналов.
- •12 Распределение энергии в спектре непериодического сигнала. Равенство Парсеваля
- •13.Соотношения между длительностью импульсов и шириной их спектра.
- •14,Спектральная плотность мощности детерминированного сигнала.
- •15.Функция автокорреляции детерминированного сигнала.
- •17.Вероятностные характеристики случайного процесса.
- •18. Стационарные и эргодические случайные процессы.
- •19.Спектральное представление случайных сигналов.
- •20.Частотное представление стационарных случайных сигналов.
- •21.Непрерывные спектры.
- •22. Основные свойства спектральной плотности.
- •23. Дискретизация непрерывных величин.
- •24. Модуляция
- •25. Амплитудная модуляция.
- •27. Частотная модуляция.
- •28. Модуляция по фазе.
- •29. Импульсный ток.
- •30. Кодоимпульсные сигналы.
- •31. Многократная модуляция.
- •32. Количество информации в дискретных сообщениях.
- •33. Свойство энтропии.
- •34. Условия энтропии и ее свойства.
- •35. Передача информации от дискретного источника.
- •37. Частная условная энтропия. Условная энтропия источника.
- •39. Энтропия квантовой величины
- •40. Количество информации в непрерывных сообщениях.
- •Связь между информационными и точностными характеристиками.
- •44.Тогда для равномерного распределения “u” и нормального распределения :
- •46.Код, кодирование, кодовые сигналы.
- •47.Системы счисления.
- •48.Числовые коды.
- •49.Коды не обнаруживающие возникающих искажений.
- •50.Коды обнаруживающие ошибки.
- •51.Информационная способность кода и избыточность.
- •Основная теорема Шеннона о кодировании для канала с помехами.
- •52.Коды с коррекцией искажений.
37. Частная условная энтропия. Условная энтропия источника.
Апостериорная энтропия источника
Средняя неопределенность относительно любого состояния источника, остающаяся у адресата после получения конкретного элемента сообщения j, характеризуется частной условной энтропией Hj(z):
(31)
Величину HU(V) называют полной условной или просто условной энтропией ансамбля V по отношению к ансамблю U.
(15) или (16)
Средняя неопределенность по всему ансамблю принимаемых элементов сообщений равна условной энтропии источника HW(Z):
(32)
Эту энтропию называют апостериорной энтропией источника информации.
Таким образом, при наличии помех среднее количество информации, содержащееся в каждом принятом элементе сообщения, относительно любого переданного равно разности априорной и апостериорной энтропий источника:
(33)
Подставив выражения H(Z) и HW(Z) из (6) и (32) в (33) и проведя несложные преобразования, получим формулу для количества информации непосредственно через вероятности:
(34)
С помощью k элементарных двоичных сигналов можно передать сообщение об объекте, имеющем 2k возможных состояний. Если все эти состояния равновероятны, то каждое сообщение из k символов имеет количество информации, равное k двоичным единицам. Этим объясняется удобство применения двоичных логарифмов. Двоичная единица информации называется битой.
38????
39. Энтропия квантовой величины
Если величина u непрерывна, она имеет бесконечное множество возможных значений. Введем для нее понятие энтропии с помощью предельного перехода.
Заменим бесконечное множество значений «u» конечным числом N значений, взятых через равные интервалы:
.
Для k-го значения измеряемой величины uk получим выражение . Вероятность появления k-го значения находим из плотности распределения по формуле . Это выражение тем точнее, чем меньше .
Энтропия квантовой величины u*
По условию нормирования тогда При второе слагаемое стремится к бесконечности. Таким образом, предельный переход не позволяет ввести понятие энтропии переданного сообщения. Однако при определении количества информации для случая, когда сигнал искажен шумами (помехами), нужно из безусловной энтропии H(U) вычесть среднюю условную HW(Z). В этом случае при квантовании “u” и “” с одинаковым шагом получается, что энтропия соответствующих квантовых величин H(u*) HW*(U*) имеют одинаковые составляющие - , которые при вычитании взаимно компенсируются. Предельный переход при дает
40. Количество информации в непрерывных сообщениях.
Рассмотрим информационные характеристики непрерывных сообщений.
Если величина u непрерывна, она имеет бесконечное множество возможных значений. Введем для нее понятие энтропии с помощью предельного перехода.
Заменим бесконечное множество значений «u» конечным числом N значений, взятых через равные интервалы:
.
Для k-го значения измеряемой величины uk получим выражение . Вероятность появления k-го значения находим из плотности распределения по формуле . Это выражение тем точнее, чем меньше .
Энтропия квантовой величины u*
По условию нормирования тогда При второе слагаемое стремится к бесконечности. Таким образом, предельный переход не позволяет ввести понятие энтропии переданного сообщения. Однако при определении количества информации для случая, когда сигнал искажен шумами (помехами), нужно из безусловной энтропии H(U) вычесть среднюю условную HW(Z). В этом случае при квантовании “u” и “” с одинаковым шагом получается, что энтропия соответствующих квантовых величин H(u*) HW*(U*) имеют одинаковые составляющие - , которые при вычитании взаимно компенсируются. Предельный переход при дает
Величину (36) называют априорной (безусловной) дифференциальной энтропией непрерывной величины U.
Величину (37)
называют апостериорной (условной) дифференциальной энтропией.
Соответственно количество информации есть разность априорной и апостериорной дифференциальной энтропии
(38)
Аналогично можно получить выражение
. (39)
Заметим, что величина дифференциальной энтропии зависит от того, в каких единицах выражена величина переменной. Разность энтропий от этого не зависит, если только величины одинаковы.
Докажем симметричность этого критерия, т.е. что в величине содержится столько же информации о величине “u”, сколько в величине “u” – о величине . Как и в предыдущем случае, возьмем за основу соотношения, полученные для объектов с дискретными состояниями. Преобразуем формулу (29) для частного количества информации I(ui):
Подставляя полученное выражение в (34) получим:
Далее найденную формулу применим к непрерывным величинам “u” и “”, подвергнув их квантованию с шагом , и совершив затем предельный переход при .
Тогда получим (40)
.Во многих случаях принимаемую
(воспроизводимую) величину
можно представить как сумму передаваемой
(измеряемой) величины “u”
и некоторой помех “S”:
(41)
причем помеха часто не зависит от “u”. В этом случае условная дифференциальная энтропия равна безусловной энтропии помехи . Покажем это. По аналогии с (37) (42)
Рассмотрим выражение в квадратных скобках под интегралом в правой части формулы (42). Заменим переменную в соответствии с (41). При этом . Будем иметь в виду, что данный интеграл вычисляется для фиксированного значения “u”:
Если значение “u” фиксировано, то условная вероятность обращается в безусловную, т.е. .
Тогда
но интеграл в правой части последнего выражения равен единице: . Поэтому (43)
Формула (39) с учетом (43) имеет вид (44)
Предполагаем, что при вычислении обеих энтропий – принимаемого сигнала и помехи – величины и S выражаются в одинаковых единицах.
Если измеряемая величина “u” и помеха S имеют нормальные распределения, то их сумма также имеет нормальное распределение.
№45 Дифференциальная энтропия нормально распределенной величины “u”, вычисленная по формуле (36)
Максимальной
дифференциальной энтропией обладает
равномерное распределение вероятностей.
Если значения случайной величины U
лежат в пределах[,
].
где D(u) – дисперсия величины “u”.
Соответственно
Подставляя эти величины в (44), получаем
№41. (45)
Как известно, дисперсия сигнала пропорциональна его средней мощности, которую обозначим Pu, а среднюю мощность помехи PS. Тогда
(46)
Отметим еще раз, что эта формула справедлива для случая, когда помеха является аддитивной (№41) и не зависит от сигнала, а законы их распределения – нормальные.
До сих пор не учитывалось, что “u” есть функция времени, а рассматривалась передача отдельных сообщений о значениях некоторой непрерывной величины “u”. При этом величина I(UW) трактовалась как среднее количество информации, содержащееся в одном принятом значении . Подразумевалось, что усреднение проводится по ансамблю всех возможных значений “u” и с учетом законов распределения каждой из них отдельно и обеих вместе.
Теперь перейдем к рассмотрению передачи случайной функции времени (случайного процесса) u(t) по каналу, в котором действует случайный шум S(t).
Пусть частотный спектр процесса u(t) ограничен частотой Fmax, а ширина полосы частот канала связи не меньше Fmax. Согласно теореме Котельникова, указанный процесс u(t) полностью определяется последовательностью ординат взятых с интервалом . Ординаты, отстающие одна от другой на величину Т, статистически взаимно независимы. Поэтому общее количество информации, содержащееся в принятом сообщении, равно сумме количеств информации, содержащихся в этих отдельных ординатах. В сообщении длительностью Тс содержится 2ТСFmax таких ординат. Среднее количество информации в принятом сообщении длительностью ТС равно(№42)
Интерес представляет среднее количество информации, принимаемая в единицу времени, т.е. средняя скорость передачи информации по данному каналу. Эта величина
(47)
При независимом аддитивном шуме S(t) и нормальных распределениях “u” и “S” средняя скорость передачи информации
(48)