- •1.1 Помехи в электронных системах. Характеристики помех.
- •1.2 Свойства эргодичности ссп.
- •1.3 Код с парным количеством единиц.
- •2.1 Помехи. Характеристики помех.
- •1) Источники помех, которые находятся вне системы;
- •2) Источники помех, которые находятся в системе.
- •2.2 Свойства стационарности ссп.
- •2.3 Ошибки и искажения в системах передачи
- •3.1 Структура системы с линейно независимыми сигналами.
- •3.2 Квантование по уровню
- •3.3 Код Хемминга.
- •4.1 Построение неразделимого циклического кода
- •4.2 Энтропия статистически зависимых сообщений
- •4.3 Амплитудная модуляция
- •5.1 Понятие информации. Измерение информации.
- •5.2 Спектр ссп
- •5.3 Условие линейной независимости
- •6.1 Количество информации, ее связь со сложностью структуры источника
- •6.2 Интервал корреляции, суть понятия
- •6.3 Обнаружение двукратных ошибок кодом Хэмминга
- •7.1 Статистический подход к измерению информации
- •7.2 Эффективная ширина спектра стационарного случайного процесса
- •7.3 Построение неразделимого циклического кода
- •8.1 Энтропия дискретных сообщений. Свойства энтропии
- •8.2 Определение количества информации при наличии помех
- •8.3 Код, обнаруживающий пакетную ошибку
- •9.1 Энтропия непрерывных сообщений
- •9.2 Скорость передачи информации
- •9.3 Виды ошибок при передаче и воспроизведении информации
- •10.1 Распределения с максимальной энтропией
- •10.2 Корреляционный критерий дискретизации
- •10.3 Системы с частотным уплотнением
- •11.1 Непрерывные сообщения. Случайный или детерминированный процесс?
- •11.2 Какие характеристики сигналов определяют выбор интервала дискретизации?
- •11.3 Системы с временным уплотнением
- •12.1 Типичные сообщения. Свойства типичных сообщений
- •12.2 Корреляционная функция ссп. Свойства корреляционной функции
- •12.3 От чего зависят корректирующие свойства циклического кода?
- •13.1 Основные характеристики случайных процессов
- •13.2 Пропускная способность канала связи
- •13.3. Уплотнение информации в системах передачи и регистрации информации
- •14.1 Понятие стационарности случайного процесса.
- •14.2 Теорема Котельникова-Шеннона.
- •15.1 Мера Хартли. Свойство аддитивности.
- •15.2 Дискретизація повідомлень.
- •15.3 Условия ортогональности и взаимности.
- •16.1 Шумы и помехи в системах связи. Характеристики шумов и помех.
- •16.2 Функция отсчетов. Её свойства.
- •16.3 Дельта-модуляция.
- •17.1 Энтропия объединения двух случайно зависимых источников.
- •17.2 Восстановительные функции. Требования к ним.
- •17.3 Фазова маніпуляція. Застосування у цифрових системах передачі.
- •18.1 Факторы, определяющие пропускную способность канала связи.
- •18.2 Функция отсчетов. Её свойства.
- •18.3 Условия исправления ошибок циклическим кодом.
- •19.1 Пропускна спроможність неперервного каналу зв”язку
- •19.2 Поняття ефективної ширини спектра свп.
- •19.3 Кратність помилки, кодова відстань, пакетна помилка. Поняття.
- •20.1 Залежність пропускної спроможності неперервного каналу зв’язку від смуги частот.
- •20.2 Мета і завдання кодування
- •20.3 Семантичний підхід до визначення кількості інформації
- •21.1 Критерій найбільшого припустимого відхилення. Загальний підхід.
- •21.2 Пропускна спроможність дискретного каналу без завад.
- •21.3 Обмінні співвідношення у каналах передачі інформації
- •22.1 Оптимальное кодирование. Критерий оптимальности кода
- •22.2 Семантичний підхід до визначення кількості інформації
- •22.3 Построение циклического кода
- •23. 1 Понятие стационарности (ссп).
- •23.2 Условная Энтропия .Понятие.
- •23.3 Оптимальное кодирование. Критерий оптимальности кода
- •24.1 Код Шеннона-Фано.
- •24.2 Свойства корреляционной функции стационарного случайного процесса
- •24.3 Правила построения кода Хеминга
- •25.1 Код Хаффмена
- •25.2 Властивості ентропії
- •25.3 Перетворення сигналів при ущільненні повідомлення.
- •26.1 Кодування блоків повідомлень. Переваги та недоліки
- •26.2 Оцінка похибки відновлення дискретизованих повідомлень
- •26.3 Відносна фазова маніпуляція
23. 1 Понятие стационарности (ссп).
Стационарными случайными процессами называют случайные процессы, статистические характеристики которых одинаковы во всех временных сечениях.
Говорят, что случайный процесс строго стационарен (или стационарен в узком смысле), если его многомерная плотность вероятности р(х1, х2, .... xn, t1, t2, .... tn) произвольной размерности n не изменяется при одновременном сдвиге всех временных сечений t1, t2,.... tn вдоль оси времени на одинаковую величину τ:
p(x1, х2.....хn, t1, t2.....tn) = p(x1, x2.....xn, t1+τ, t2+τ..... tn+τ) при любом τ.
Если же ограничить требования тем, чтобы от временного сдвига не зависели лишь одномерная и двумерная плотности вероятности, то такой случайный процесс будет стационарен в широком смысле. Понятно, что из стационарности в узком смысле следует стационарность в широком смысле, но не наоборот.
Для стационарного случайного процесса математическое ожидание и дисперсия не зависят от времени, а корреляционная функция зависит не от самих моментов времени, а только от интервала между ними τ=t2-t1:
Rx(t1, t2) = Rx(t2 - t1) = Rx(τ) .
Корреляционная функция стационарного случайного процесса является четной:
Rx(-τ) = Rx(τ) .
Кроме того, абсолютные значения этой функции при любых τ не превышают ее значения при τ = 0 (оно равно дисперсии случайного процесса).
23.2 Условная Энтропия .Понятие.
Взаимная статистическая связь между сообщениями Х и Y характеризуется условными вероятностями , определяющими вероятность появления элементов yj при условии, что стал известен элемент сообщения xi. Информативность сообщений Y после того, как стал известен элемент xi , характеризуется частной условной энтропией, определяемой выражением : . Проведем усреднение по всем возможным элементам и найдем общую условную энтропию сообщений Y относительно сообщений x : . Используя известные соотнешения для вероятности совместного появления 2ух зависимых событий: , получим: . Смысл условной энтропии в том,что она является мерой кол-ва информации в сообщениях Y, когда известно, что передаются сообщения Х. Используя соотнешения теории вер-ти, можно показать, что услов.энтропия сообщений Y относительно Х при жесткой статистич.зависимости (т.е. когда одна из услов.вероятностей в строке таблицы услов.вероятностей =1,а все остальные =0) равна нулю, т.е. в сообщениях Y нет никакой новой информации. При статистич.независимости сообщений Х и Y услов.энтропия равна безусловной энтропии сообщений . Энтропия объединения равна сумме двух энтропий: безусловной энтропии сообщений и услов.энтропии : . Таким образом, услов.энтропия характеризует ту добавочную информацию, котрую дают сообщения Y при условии,что известна энтропия сообщений Х.
23.3 Оптимальное кодирование. Критерий оптимальности кода
Оптимальное статистическое кодирование обеспечивает минимизацию среднего количества кодовых символов на один элемент сообщения. Этим обеспечивается получение максимально возможного количества информации, передаваемого кодовыми комбинациями при заданной длительности работы канала, а следовательно, и пропускной способности канала.
Все они должны обеспечивать решение' двух основных задач:
1)при заданной статистике источника сообщений формирование кодовых комбинаций со статистическими характеристиками, при которых достигается приближение скорости передачи информации к пропускной способности канала;
2)возможность однозначного декодирования сигналов на приемной стороне.( ни одна из кодовых комбинаций не является началом другой. Этим обеспечивается требование разделимости кодовых комбинаций, т. е. возможность однозначного декодирования сигналов.)
Критерий оптимальности кода.
Оптимальное согласование сообщения с каналом будет при выборе длительностей символов сообщения в соответствии с выражением
(II1-60}
или в другой записи для случая, когда
(111-61)
Из (II1-60) следует, что длительности символов сообщения должны быть пропорциональны логарифму вероятности их появления, т. е. наиболее вероятные символы должны иметь наименьшую длительность, а наименее вероятные — большую длительность. Если символы данного сообщения не удовлетворяют условиям оптимального согласования, они могут быть при согласовании заменены другими символами в соответствии с условиями (111-60) или (111-61). Такая замена называется оптимальным кодированием.
Оптимальные коды: код Шеннона- Фано и код Хаффмена.