- •Н.Н. Куцый теория информации
- •1. О понятии "информация"
- •2. Этапы обращения информации
- •3. Информационные системы
- •4. Система передачи информации: основные понятия и определения
- •5. Уровни проблем передачи информации
- •6. Теория информации
- •7. Понятия сигнала и его модели
- •8. Формы представления детерминированных сигналов
- •9. Ортогональные представления сигналов
- •10. Временная форма представления сигнала
- •11. Частотная форма представления сигнала. Спектры периодических сигналов
- •12. Распределение энергии в спектре периодического сигнала
- •13. Частотная форма представления сигнала. Спектры непериодических сигналов
- •14. Распределение энергии в спектре непериодического сигнала
- •15.Соотношения между длительностью импульсов и шириной их спектра
- •16.Спектральная плотность мощности детерминированного сигнала
- •17.Функция автокорреляции детерминированного сигнала
- •18.Случайный процесс как модель сигнала
- •19.Стационарные и эргодические процессы
- •20.Спектральное представление случайных сигналов
- •21.Частотное представление стационарных случайных процессов (дискретный спектр)
- •22.Частотное представление стационарных случайных сигналов. Непрерывные спектры
- •23.Основные свойства спектральной плотности
- •24.Преимущества цифровой формы представления сигналов
- •25.Общая постановка задачи дискретизации
- •26.Способы восстановления непрерывного сигнала
- •27.Критерии качества восстановления
- •28.Методы дискретизации посредством выборок
- •29.Равномерная дискретизация. Теорема котельникова
- •30.Теоретические и практические аспекты использования теоремы котельникова
- •31.Дискретизация по критерию наибольшего отклонения
- •32.Адаптивная дискретизация
- •33.Квантование сигнала
- •34.Квантование сигналов при наличии помех
- •35.Геометрическая форма представления сигналов
- •36.Энтропия как мера неопределенности выбора
- •37.Свойства энтропии
- •38.Условная энтропия и её свойства
- •39.Энтропия непрерывного источника информации (дифференциальная энтропия)
- •40.Свойства дифференциальной энтропии
- •41.Количество информации как мера снятой неопределенности
- •42.Эпсилон-энтропия случайной величины
- •43.Информационные характеристики источника сообщений и канала связи. Основные понятия и определения
- •44.Информационные характеристики источника дискретных сообщений
- •45.Информационные характеристики дискретных каналов связи
- •46.Информационные характеристики источника непрерывных сообщений
- •47.Информационные характеристики непрерывных каналов связи
46.Информационные характеристики источника непрерывных сообщений
Эпсилон-производительность непрерывного источника сообщений. Под конкретным непрерывным сообщением подразумевают некоторую реализацию случайного процесса длительностью . Источник непрерывных сообщений характеризуется ансамблем его реализаций. Наиболее плодотворной оказалась модель непрерывного сообщения в виде эргодического случайного процесса.
Для определения производительности источника непрерывных сообщений воспользуемся подходом и результатами вышеизложенного материала, где определена энтропия случайной величины.
Под производительностью источника непрерывных сообщений понимают минимальное количество информации, которое необходимо создать источнику в единицу времени, чтобы любую реализацию можно было воспроизвести с заданной вероятностью.
Допустим, что воспроизводится реализацией . Наблюдаемые реализации следует рассматривать, как сигналы, обладающие ограниченным, хотя возможно и достаточно широким спектром.
При достаточно большой длительности как , так и могут быть представлены мерными векторами и , координатами которых являются отсчёты. Ансамбли сообщений и воспроизводящих сигналов характеризуют при этом мерными случайными векторами и , составляющими, которых являются соответственно случайные величины и . Статистическое описание каждого из ансамблей задаётся мерными плотностями распределения вероятностей и . Связь между ансамблями отражают условные плотности распределения и , а также совместная плотность распределения вероятностей .
Распространяя формулу (45.8) на мерные случайные векторы и для количества информации одного из них относительно второго, получим
,
где интегралы являются мерными.
Используем, как и ранее, среднеквадратический критерий верности , который в рассматриваемом случае имеет вид
,
где представляет собой квадрат расстояния в мерном евклидовом пространстве.
Количество информации, которое приходится в среднем на один отсчёт квантованных по времени сигналов и , определяется выражением
.
Тогда в соответствии с определением для пропорциональности источника непрерывных сообщений запишем
при выполнении условия .
Величина характеризует скорость формирования источником отсчётов .
Возможности воспроизведения любого сообщения с заданной вероятность можно дать геометрическое толкование. Поскольку все реализации эргодического процесса достаточно большой длительности являются типичными и обладают практически одной и той же средней мощностью, концы соответствующих им векторов в мерном пространстве сообщений составляют непрерывное множество точек, равноудаленных от начала координат (гиперсферу).Конечное подмножество воспроизводящих сигналов размещается в центрах непересекающихся правильных сферических угольников (областей), на которое гиперсфера разбивается без промежутков. Размеры областей определены заданной верностью воспроизведения сообщений. Если источником реализуется сообщение , конец вектора которого должен попасть в область сигнала , то воспроизводится сигнал .
Следует отметить, что заданная верность воспроизведения будет достигнута с вероятностью, близкой к единице, только при достаточно большой длительности сообщений, когда погрешностью от замены непрерывных реализаций последовательностями отсчётов можно будет пренебречь. Для уменьшения указанной погрешности при ограниченной длительности сообщений необходимо увеличивать число отсчётов . В пределе при получим непрерывные реализации.
В вычислении производительности источника и геометрическом толковании возможности воспроизведения сообщений с заданной верностью принципиально ничего не изменяется. Следует лишь учесть, что мерное евклидово пространство сообщений становится гильбертовым и мерой близости двух сигналов должно быть расстояние в этом пространстве.