- •1.1 Помехи в электронных системах. Характеристики помех.
- •1.2 Свойства эргодичности ссп.
- •1.3 Код с парным количеством единиц.
- •2.1 Помехи. Характеристики помех.
- •1) Источники помех, которые находятся вне системы;
- •2) Источники помех, которые находятся в системе.
- •2.2 Свойства стационарности ссп.
- •2.3 Ошибки и искажения в системах передачи
- •3.1 Структура системы с линейно независимыми сигналами.
- •3.2 Квантование по уровню
- •3.3 Код Хемминга.
- •4.1 Построение неразделимого циклического кода
- •4.2 Энтропия статистически зависимых сообщений
- •4.3 Амплитудная модуляция
- •5.1 Понятие информации. Измерение информации.
- •5.2 Спектр ссп
- •5.3 Условие линейной независимости
- •6.1 Количество информации, ее связь со сложностью структуры источника
- •6.2 Интервал корреляции, суть понятия
- •6.3 Обнаружение двукратных ошибок кодом Хэмминга
- •7.1 Статистический подход к измерению информации
- •7.2 Эффективная ширина спектра стационарного случайного процесса
- •7.3 Построение неразделимого циклического кода
- •8.1 Энтропия дискретных сообщений. Свойства энтропии
- •8.2 Определение количества информации при наличии помех
- •8.3 Код, обнаруживающий пакетную ошибку
- •9.1 Энтропия непрерывных сообщений
- •9.2 Скорость передачи информации
- •9.3 Виды ошибок при передаче и воспроизведении информации
- •10.1 Распределения с максимальной энтропией
- •10.2 Корреляционный критерий дискретизации
- •10.3 Системы с частотным уплотнением
- •11.1 Непрерывные сообщения. Случайный или детерминированный процесс?
- •11.2 Какие характеристики сигналов определяют выбор интервала дискретизации?
- •11.3 Системы с временным уплотнением
- •12.1 Типичные сообщения. Свойства типичных сообщений
- •12.2 Корреляционная функция ссп. Свойства корреляционной функции
- •12.3 От чего зависят корректирующие свойства циклического кода?
- •13.1 Основные характеристики случайных процессов
- •13.2 Пропускная способность канала связи
- •13.3. Уплотнение информации в системах передачи и регистрации информации
- •14.1 Понятие стационарности случайного процесса.
- •14.2 Теорема Котельникова-Шеннона.
- •15.1 Мера Хартли. Свойство аддитивности.
- •15.2 Дискретизація повідомлень.
- •15.3 Условия ортогональности и взаимности.
- •16.1 Шумы и помехи в системах связи. Характеристики шумов и помех.
- •16.2 Функция отсчетов. Её свойства.
- •16.3 Дельта-модуляция.
- •17.1 Энтропия объединения двух случайно зависимых источников.
- •17.2 Восстановительные функции. Требования к ним.
- •17.3 Фазова маніпуляція. Застосування у цифрових системах передачі.
- •18.1 Факторы, определяющие пропускную способность канала связи.
- •18.2 Функция отсчетов. Её свойства.
- •18.3 Условия исправления ошибок циклическим кодом.
- •19.1 Пропускна спроможність неперервного каналу зв”язку
- •19.2 Поняття ефективної ширини спектра свп.
- •19.3 Кратність помилки, кодова відстань, пакетна помилка. Поняття.
- •20.1 Залежність пропускної спроможності неперервного каналу зв’язку від смуги частот.
- •20.2 Мета і завдання кодування
- •20.3 Семантичний підхід до визначення кількості інформації
- •21.1 Критерій найбільшого припустимого відхилення. Загальний підхід.
- •21.2 Пропускна спроможність дискретного каналу без завад.
- •21.3 Обмінні співвідношення у каналах передачі інформації
- •22.1 Оптимальное кодирование. Критерий оптимальности кода
- •22.2 Семантичний підхід до визначення кількості інформації
- •22.3 Построение циклического кода
- •23. 1 Понятие стационарности (ссп).
- •23.2 Условная Энтропия .Понятие.
- •23.3 Оптимальное кодирование. Критерий оптимальности кода
- •24.1 Код Шеннона-Фано.
- •24.2 Свойства корреляционной функции стационарного случайного процесса
- •24.3 Правила построения кода Хеминга
- •25.1 Код Хаффмена
- •25.2 Властивості ентропії
- •25.3 Перетворення сигналів при ущільненні повідомлення.
- •26.1 Кодування блоків повідомлень. Переваги та недоліки
- •26.2 Оцінка похибки відновлення дискретизованих повідомлень
- •26.3 Відносна фазова маніпуляція
7.2 Эффективная ширина спектра стационарного случайного процесса
При анализе случайных процессов с неравномерным спектром часто пользуются понятием эквивалентной или эффективной ширины спектра
По правилу эквивалентного прямоугольника рассматривается как основание прямоугольника с высотой равной максимальному значению спектральной плотности и площадью равной площади под кривой спектральной плотности сообщения:
Также пользуясь преобразованием Винера-Хинчина, можно выразить эффективную ширину спектра через корреляционную функцию:
.
Эффективную ширину спектра также можно выразить с помощью интервала корреляции следующим образом
7.3 Построение неразделимого циклического кода
Циклический код предназначен для того, чтобы выявлять ошибки и в некоторых случаях исправлять их. Циклические коды характеризуются тем, что при циклической перестановке всех символов кодовой комбинации этого кода возникает другая кодовая комбинация этого же кода, т.е. если комбинация является комбинацией циклического кода, то тоже комбинация этого кода (n - длина кодовой комбинации). Определение ошибки с помощью циклического кода обеспечивается тем, что в качестве разрешенных комбинаций избираются такие, которые делятся без остатка на некоторый заранее выбранный полином . Если принятая комбинация содержит искаженный символ, то деление на полином осуществляется с остатком. При этом формируется сигнал, который свидетельствует об ошибке. Полином называется образующим.
В неразделимом циклическом коде мы не знаем, где расположены контрольные символы (а в разделимом циклическом коде контрольные символы будут расположены в младших разрядах). Построение комбинаций циклического кода может быть осуществлена путем умножения первоначальной кодовой комбинации на образующий полином с приведением подобных членов по модулю 2. Если старшая степень произведения не превышает , тогда полученный полином будет представлять кодовую комбинацию циклического кода. Если старшая степень произведения больше или равна , тогда полином произведения делится на заранее выбранный полином степени , и результатом умножения будет считаться полученный остаток от деления. Таким образом, все полиномы, отражающие комбинации циклического кода, будут иметь степень ниже .
Например
8.1 Энтропия дискретных сообщений. Свойства энтропии
Энтропия – это количество информации приходящейся на один символ сообщения. Энтропия характеризует источник сообщений с заданным алфавитом и является мерой неопределенности, которая имеется в ансамбле сообщений этого источника. Чем больше энтропия, тем больше информации несет в себе сообщение источника, тем большая неопределенность снимается при получении сообщения.
Энтропия определяется выражением:
, где - вероятность появления i-го символа.
Дискретным называется сигнал состоящий из отдельных элементов (букв, символов, импульсов) принимающих конечное число различных значений.
Свойства энтропии:
Энтропия является величиной вещественной ограниченной и отрицательной, т. е. H>0. Это свойство следует из выражения с учетом того, что величины рi являются неотрицательными величинами и заключены в промежутке 0 ≤ рi ≤ 1.
Энтропия минимальна и равна нулю, если сообщение известно заранее, т. е. если рi= 1, а р1 = р2 = ... = рi-1 =рi+1 = ...=рn.=0.
Энтропия максимальна, если все состояния элементов сообщений равновероятны. Данное свойство энтропии легко доказывается с помощью методов вариационного исчисления. Мы воспользуемся конечным результатом, согласно которому Н = Нтах, если
,
4. Энтропия бинарных сообщений может изменяться от нуля до единицы. Бинарные сообщения характеризуются использованием двоичного алфавита, т. е. т=2. Для таких сообщений