- •1.1 Помехи в электронных системах. Характеристики помех.
- •1.2 Свойства эргодичности ссп.
- •1.3 Код с парным количеством единиц.
- •2.1 Помехи. Характеристики помех.
- •1) Источники помех, которые находятся вне системы;
- •2) Источники помех, которые находятся в системе.
- •2.2 Свойства стационарности ссп.
- •2.3 Ошибки и искажения в системах передачи
- •3.1 Структура системы с линейно независимыми сигналами.
- •3.2 Квантование по уровню
- •3.3 Код Хемминга.
- •4.1 Построение неразделимого циклического кода
- •4.2 Энтропия статистически зависимых сообщений
- •4.3 Амплитудная модуляция
- •5.1 Понятие информации. Измерение информации.
- •5.2 Спектр ссп
- •5.3 Условие линейной независимости
- •6.1 Количество информации, ее связь со сложностью структуры источника
- •6.2 Интервал корреляции, суть понятия
- •6.3 Обнаружение двукратных ошибок кодом Хэмминга
- •7.1 Статистический подход к измерению информации
- •7.2 Эффективная ширина спектра стационарного случайного процесса
- •7.3 Построение неразделимого циклического кода
- •8.1 Энтропия дискретных сообщений. Свойства энтропии
- •8.2 Определение количества информации при наличии помех
- •8.3 Код, обнаруживающий пакетную ошибку
- •9.1 Энтропия непрерывных сообщений
- •9.2 Скорость передачи информации
- •9.3 Виды ошибок при передаче и воспроизведении информации
- •10.1 Распределения с максимальной энтропией
- •10.2 Корреляционный критерий дискретизации
- •10.3 Системы с частотным уплотнением
- •11.1 Непрерывные сообщения. Случайный или детерминированный процесс?
- •11.2 Какие характеристики сигналов определяют выбор интервала дискретизации?
- •11.3 Системы с временным уплотнением
- •12.1 Типичные сообщения. Свойства типичных сообщений
- •12.2 Корреляционная функция ссп. Свойства корреляционной функции
- •12.3 От чего зависят корректирующие свойства циклического кода?
- •13.1 Основные характеристики случайных процессов
- •13.2 Пропускная способность канала связи
- •13.3. Уплотнение информации в системах передачи и регистрации информации
- •14.1 Понятие стационарности случайного процесса.
- •14.2 Теорема Котельникова-Шеннона.
- •15.1 Мера Хартли. Свойство аддитивности.
- •15.2 Дискретизація повідомлень.
- •15.3 Условия ортогональности и взаимности.
- •16.1 Шумы и помехи в системах связи. Характеристики шумов и помех.
- •16.2 Функция отсчетов. Её свойства.
- •16.3 Дельта-модуляция.
- •17.1 Энтропия объединения двух случайно зависимых источников.
- •17.2 Восстановительные функции. Требования к ним.
- •17.3 Фазова маніпуляція. Застосування у цифрових системах передачі.
- •18.1 Факторы, определяющие пропускную способность канала связи.
- •18.2 Функция отсчетов. Её свойства.
- •18.3 Условия исправления ошибок циклическим кодом.
- •19.1 Пропускна спроможність неперервного каналу зв”язку
- •19.2 Поняття ефективної ширини спектра свп.
- •19.3 Кратність помилки, кодова відстань, пакетна помилка. Поняття.
- •20.1 Залежність пропускної спроможності неперервного каналу зв’язку від смуги частот.
- •20.2 Мета і завдання кодування
- •20.3 Семантичний підхід до визначення кількості інформації
- •21.1 Критерій найбільшого припустимого відхилення. Загальний підхід.
- •21.2 Пропускна спроможність дискретного каналу без завад.
- •21.3 Обмінні співвідношення у каналах передачі інформації
- •22.1 Оптимальное кодирование. Критерий оптимальности кода
- •22.2 Семантичний підхід до визначення кількості інформації
- •22.3 Построение циклического кода
- •23. 1 Понятие стационарности (ссп).
- •23.2 Условная Энтропия .Понятие.
- •23.3 Оптимальное кодирование. Критерий оптимальности кода
- •24.1 Код Шеннона-Фано.
- •24.2 Свойства корреляционной функции стационарного случайного процесса
- •24.3 Правила построения кода Хеминга
- •25.1 Код Хаффмена
- •25.2 Властивості ентропії
- •25.3 Перетворення сигналів при ущільненні повідомлення.
- •26.1 Кодування блоків повідомлень. Переваги та недоліки
- •26.2 Оцінка похибки відновлення дискретизованих повідомлень
- •26.3 Відносна фазова маніпуляція
6.2 Интервал корреляции, суть понятия
Для оценки статистической связи введено понятие интервала корреляции. Суть понятия в том, что значение случайного процесса и можно считать статистически независимыми при условии .
Интервал корреляции - числовая характеристика, которая служит для оценки “скорости изменения” реализации случайного процесса.
И нтервал корреляции определяется как половина ширины прямоугольника единичной высоты, площадь которого равна площади под графиком коэффициента корреляции.
, де – нормированная корреляционная функция.
Интервал корреляции также связан с эффективной шириной спектра случайного процесса: .
6.3 Обнаружение двукратных ошибок кодом Хэмминга
Код Хэмминга предназначен для обнаружения и исправления однократной ошибки. При построении кода каждый из k проверочных символов определяется как результат суммирования по модулю 2 определенного сочетания информационных символов. В результате этого сумма проверяемых информационных и контрольного символа всегда является четной. Количество контрольных символов для исправления 1-кратной ошибки определяется по формуле: , где -количество символов в кодовой комбинации. Контрольные символы располагаются на местах, определяемых степенью двойки (1, 2, 4, 8, 16…)
В коде Хэмминга проверки на четность организованы таким образом, что получается число, указывающее номер позиции, на которой произошло искажение.
При проверке на четность мы используем номер позиции, соответствующей единице, находящейся в том разряде, какую проверку мы делаем, то есть если первая проверка, то смотрим единицы по первому разряду.
Если число единиц на проверочных позициях четное то контрольный символ равен 0, а если число единиц на проверочных позиция не четное, то контрольный символ равен 1. Число проверок организовано таким образом, что получается число, указывающее на номер позиции, на которой произошла однократная ошибка.
Для обнаружения двукратной ошибки необходимо добавить 1 контрольный символ к коду Хэмминга: . Дополнительная проверка включает в себя все символы кодовой комбинации. При декодировании сначала делают k проверок в соответствии с формулами, а потом осуществляют (k+1) проверку. При этом, если некоторые проверки и (k+1) проверка дают ненулевой результат, то была однократная ошибка. Если же последняя проверка даст нуль, то имеем дело с двукратной ошибкой.
Например, кодовая комбинация 1001 была закодирована кодом Хэмминга. Для исправления 1-кратной ошибки нужно использовать 3 контрольных символа (позиции х1, х2, х4). После проверок имеем код (табл). Чтобы обнаружить двукратную ошибку, введем дополнительный контрольный символ х8=1, чтоб соблюдать четность. Например произошла ошибка на позициях х4 (1→0) и х7 (1→0). Делаем 4 проверки. В последней проверки при суммировании всех членов комбинации получили 0. Двукратная ошибка обнаружена.
7.1 Статистический подход к измерению информации
Особенность статистического метода в том, что он определяет энтропию как меру неопределенности, с учетом вероятностей появления элементов сообщения. Все возможные сообщения составляют ансамбль . Вероятности не остаются постоянными, поэтому можно говорить о статистических характеристиках как о переменных величинах (в большинстве случаев). Имеем сообщение из n элементов и алфавита m, где р1, р2…рm – вероятности появления элементов, а сами элементы алфавита обозначим как . Вероятность того, что в сообщение войдут ni элементов xi, равняется , а вероятность образования сообщения из n1 n2, ..., ni ..., nт соответствующих элементов будет равна При достаточно большом значении n имеем элементов хi, а вероятность появления типичных сообщений р может быть найдена с учетом выражения . Количество информации в одном сообщении: