- •1.1 Помехи в электронных системах. Характеристики помех.
- •1.2 Свойства эргодичности ссп.
- •1.3 Код с парным количеством единиц.
- •2.1 Помехи. Характеристики помех.
- •1) Источники помех, которые находятся вне системы;
- •2) Источники помех, которые находятся в системе.
- •2.2 Свойства стационарности ссп.
- •2.3 Ошибки и искажения в системах передачи
- •3.1 Структура системы с линейно независимыми сигналами.
- •3.2 Квантование по уровню
- •3.3 Код Хемминга.
- •4.1 Построение неразделимого циклического кода
- •4.2 Энтропия статистически зависимых сообщений
- •4.3 Амплитудная модуляция
- •5.1 Понятие информации. Измерение информации.
- •5.2 Спектр ссп
- •5.3 Условие линейной независимости
- •6.1 Количество информации, ее связь со сложностью структуры источника
- •6.2 Интервал корреляции, суть понятия
- •6.3 Обнаружение двукратных ошибок кодом Хэмминга
- •7.1 Статистический подход к измерению информации
- •7.2 Эффективная ширина спектра стационарного случайного процесса
- •7.3 Построение неразделимого циклического кода
- •8.1 Энтропия дискретных сообщений. Свойства энтропии
- •8.2 Определение количества информации при наличии помех
- •8.3 Код, обнаруживающий пакетную ошибку
- •9.1 Энтропия непрерывных сообщений
- •9.2 Скорость передачи информации
- •9.3 Виды ошибок при передаче и воспроизведении информации
- •10.1 Распределения с максимальной энтропией
- •10.2 Корреляционный критерий дискретизации
- •10.3 Системы с частотным уплотнением
- •11.1 Непрерывные сообщения. Случайный или детерминированный процесс?
- •11.2 Какие характеристики сигналов определяют выбор интервала дискретизации?
- •11.3 Системы с временным уплотнением
- •12.1 Типичные сообщения. Свойства типичных сообщений
- •12.2 Корреляционная функция ссп. Свойства корреляционной функции
- •12.3 От чего зависят корректирующие свойства циклического кода?
- •13.1 Основные характеристики случайных процессов
- •13.2 Пропускная способность канала связи
- •13.3. Уплотнение информации в системах передачи и регистрации информации
- •14.1 Понятие стационарности случайного процесса.
- •14.2 Теорема Котельникова-Шеннона.
- •15.1 Мера Хартли. Свойство аддитивности.
- •15.2 Дискретизація повідомлень.
- •15.3 Условия ортогональности и взаимности.
- •16.1 Шумы и помехи в системах связи. Характеристики шумов и помех.
- •16.2 Функция отсчетов. Её свойства.
- •16.3 Дельта-модуляция.
- •17.1 Энтропия объединения двух случайно зависимых источников.
- •17.2 Восстановительные функции. Требования к ним.
- •17.3 Фазова маніпуляція. Застосування у цифрових системах передачі.
- •18.1 Факторы, определяющие пропускную способность канала связи.
- •18.2 Функция отсчетов. Её свойства.
- •18.3 Условия исправления ошибок циклическим кодом.
- •19.1 Пропускна спроможність неперервного каналу зв”язку
- •19.2 Поняття ефективної ширини спектра свп.
- •19.3 Кратність помилки, кодова відстань, пакетна помилка. Поняття.
- •20.1 Залежність пропускної спроможності неперервного каналу зв’язку від смуги частот.
- •20.2 Мета і завдання кодування
- •20.3 Семантичний підхід до визначення кількості інформації
- •21.1 Критерій найбільшого припустимого відхилення. Загальний підхід.
- •21.2 Пропускна спроможність дискретного каналу без завад.
- •21.3 Обмінні співвідношення у каналах передачі інформації
- •22.1 Оптимальное кодирование. Критерий оптимальности кода
- •22.2 Семантичний підхід до визначення кількості інформації
- •22.3 Построение циклического кода
- •23. 1 Понятие стационарности (ссп).
- •23.2 Условная Энтропия .Понятие.
- •23.3 Оптимальное кодирование. Критерий оптимальности кода
- •24.1 Код Шеннона-Фано.
- •24.2 Свойства корреляционной функции стационарного случайного процесса
- •24.3 Правила построения кода Хеминга
- •25.1 Код Хаффмена
- •25.2 Властивості ентропії
- •25.3 Перетворення сигналів при ущільненні повідомлення.
- •26.1 Кодування блоків повідомлень. Переваги та недоліки
- •26.2 Оцінка похибки відновлення дискретизованих повідомлень
- •26.3 Відносна фазова маніпуляція
21.1 Критерій найбільшого припустимого відхилення. Загальний підхід.
Выбор шага дискретизации с использованием данного критерия производится в предположении, что исходное сообщение восстанавливается с помощью полинома степени n. На некотором отрезке времени [t0, tn] для равноотстоящих отсчетов восстановленное сообщение х'(t) может быть представлено выражением:
Вводя сокращенную запись, получим:
Для восстановления функции х(t) c помощью полинома степени n необходимо иметь n + 1 отсчетов.
Погрешность восстановления исходного сообщения в этом случае определится остаточным членом:
где — значение (n + 1)-й производной сообщения х (t) взятой в некоторой точке ξ, лежащей внутри интервала tn — t0. Поскольку положение точки ξ неизвестно, для оценки используют модуль максимального значения производной Мn+1 на заданном интервале. Тогда
Введя ограничение
где ε0 — допустимая погрешность дискретизации по времени, можно найти шаг дискретизации или длину интервала tn — t0, на котором-нужно определить п + 1 отсчетных значений непрерывного сообщения. При этом интервал tn — t0 является некоторой функцией погрешности ε0, степени воспроизводящего полинома и т. д.
Интерес представляет определение шага дискретизации при использовании воспроизводящих полиномов нулевой и первой степени.
Нулевой степени воспроизводящего полинома соответствует ступенчатая аппроксимация непрерывного сообщения. В этом случае (1-90) примет вид:
откуда
При n = 1 (линейная аппроксимация) остаточный член определится
Максимизируя произведение
получим откуда
21.2 Пропускна спроможність дискретного каналу без завад.
Под дискретным каналом передачи информации принято понимать совокупность средств, предназначенных для передачи дискретных сигналов.
Пропускная способность дискретного канала без помех, в котором используется m символов с длительностью . Символы считаются независимыми и любая последовательность символов представляет некоторое сообщение. Взяв в качестве исходного выражение , определим количество информации в сообщении и найдем пропускную способность.
Общее количество сообщений L, имеющих длительность , определяется как сумма количеств сообщений, оканчивающихся символами
,
Найдем значение пропускной способности:
- корень характеристического уравнения
Когда , то
21.3 Обмінні співвідношення у каналах передачі інформації
за счет расширения полосі частот и уменьшения длительности сообщения можно оставить прежнюю пропускную способность
22.1 Оптимальное кодирование. Критерий оптимальности кода
Если источник вырабатывает сообщения, состоящие из фиксированного набора символов х с вероятностями появления р(хі), то при оптимальном кодировании они заміняються символами кода z или комбинациями кода так, чтобы количество информации на один символ кода было максимальным.
Оптимальные коды: код Шеннона- Фано и код Хаффмена.
Код Шеннона-Фано рассчитан на использование двоичного алфавита. Хаффменом предложена методика, позволяющая построить оптимальный код с минимальной избыточностью при любом основании кода m.
Оптимальное статистическое кодирование обеспечивает минимизацию среднего количества кодовых символов на один элемент сообщения. Этим обеспечивается получение максимально возможного количества информации, передаваемого кодовыми комбинациями при заданной длительности работы канала, а следовательно, и пропускной способности канала.
Критерий оптимальности кода.
Оптимальное согласование сообщения с каналом будет при выборе длительностей символов сообщения в соответствии с выражением
(II1-60}
или в другой записи для случая, когда
(111-61)
Из (II1-60) следует, что длительности символов сообщения должны быть пропорциональны логарифму вероятности их появления, т. е. наиболее вероятные символы должны иметь наименьшую длительность, а наименее вероятные — большую длительность. Если символы данного сообщения не удовлетворяют условиям оптимального согласования, они могут быть при согласовании заменены другими символами в соответствии с условиями (111-60) или (111-61). Такая замена называется оптимальным кодированием.