- •1.1 Помехи в электронных системах. Характеристики помех.
- •1.2 Свойства эргодичности ссп.
- •1.3 Код с парным количеством единиц.
- •2.1 Помехи. Характеристики помех.
- •1) Источники помех, которые находятся вне системы;
- •2) Источники помех, которые находятся в системе.
- •2.2 Свойства стационарности ссп.
- •2.3 Ошибки и искажения в системах передачи
- •3.1 Структура системы с линейно независимыми сигналами.
- •3.2 Квантование по уровню
- •3.3 Код Хемминга.
- •4.1 Построение неразделимого циклического кода
- •4.2 Энтропия статистически зависимых сообщений
- •4.3 Амплитудная модуляция
- •5.1 Понятие информации. Измерение информации.
- •5.2 Спектр ссп
- •5.3 Условие линейной независимости
- •6.1 Количество информации, ее связь со сложностью структуры источника
- •6.2 Интервал корреляции, суть понятия
- •6.3 Обнаружение двукратных ошибок кодом Хэмминга
- •7.1 Статистический подход к измерению информации
- •7.2 Эффективная ширина спектра стационарного случайного процесса
- •7.3 Построение неразделимого циклического кода
- •8.1 Энтропия дискретных сообщений. Свойства энтропии
- •8.2 Определение количества информации при наличии помех
- •8.3 Код, обнаруживающий пакетную ошибку
- •9.1 Энтропия непрерывных сообщений
- •9.2 Скорость передачи информации
- •9.3 Виды ошибок при передаче и воспроизведении информации
- •10.1 Распределения с максимальной энтропией
- •10.2 Корреляционный критерий дискретизации
- •10.3 Системы с частотным уплотнением
- •11.1 Непрерывные сообщения. Случайный или детерминированный процесс?
- •11.2 Какие характеристики сигналов определяют выбор интервала дискретизации?
- •11.3 Системы с временным уплотнением
- •12.1 Типичные сообщения. Свойства типичных сообщений
- •12.2 Корреляционная функция ссп. Свойства корреляционной функции
- •12.3 От чего зависят корректирующие свойства циклического кода?
- •13.1 Основные характеристики случайных процессов
- •13.2 Пропускная способность канала связи
- •13.3. Уплотнение информации в системах передачи и регистрации информации
- •14.1 Понятие стационарности случайного процесса.
- •14.2 Теорема Котельникова-Шеннона.
- •15.1 Мера Хартли. Свойство аддитивности.
- •15.2 Дискретизація повідомлень.
- •15.3 Условия ортогональности и взаимности.
- •16.1 Шумы и помехи в системах связи. Характеристики шумов и помех.
- •16.2 Функция отсчетов. Её свойства.
- •16.3 Дельта-модуляция.
- •17.1 Энтропия объединения двух случайно зависимых источников.
- •17.2 Восстановительные функции. Требования к ним.
- •17.3 Фазова маніпуляція. Застосування у цифрових системах передачі.
- •18.1 Факторы, определяющие пропускную способность канала связи.
- •18.2 Функция отсчетов. Её свойства.
- •18.3 Условия исправления ошибок циклическим кодом.
- •19.1 Пропускна спроможність неперервного каналу зв”язку
- •19.2 Поняття ефективної ширини спектра свп.
- •19.3 Кратність помилки, кодова відстань, пакетна помилка. Поняття.
- •20.1 Залежність пропускної спроможності неперервного каналу зв’язку від смуги частот.
- •20.2 Мета і завдання кодування
- •20.3 Семантичний підхід до визначення кількості інформації
- •21.1 Критерій найбільшого припустимого відхилення. Загальний підхід.
- •21.2 Пропускна спроможність дискретного каналу без завад.
- •21.3 Обмінні співвідношення у каналах передачі інформації
- •22.1 Оптимальное кодирование. Критерий оптимальности кода
- •22.2 Семантичний підхід до визначення кількості інформації
- •22.3 Построение циклического кода
- •23. 1 Понятие стационарности (ссп).
- •23.2 Условная Энтропия .Понятие.
- •23.3 Оптимальное кодирование. Критерий оптимальности кода
- •24.1 Код Шеннона-Фано.
- •24.2 Свойства корреляционной функции стационарного случайного процесса
- •24.3 Правила построения кода Хеминга
- •25.1 Код Хаффмена
- •25.2 Властивості ентропії
- •25.3 Перетворення сигналів при ущільненні повідомлення.
- •26.1 Кодування блоків повідомлень. Переваги та недоліки
- •26.2 Оцінка похибки відновлення дискретизованих повідомлень
- •26.3 Відносна фазова маніпуляція
25.1 Код Хаффмена
Хаффманом предложена методика, позволяющая построить оптимальный код с минимальной избыточностью при любом основании кода m. Правило построения кода заключается в следующем:
1.Символы сообщений (буквы) располагаются в порядке убывания вероятностей.
2. наименее вероятных букв объединяются в одну вспомогательную, вероятность которой определяется суммой вероятностей входящих в нее букв. Число определяется из условия , так чтобы выполнялось соотношение , где М – число символов сообщения; j – целое число.
3.В качестве последних символов кода, приписываемых буквам, вошедшим во вспомогательную букву, выбирается различных символов кода.
4.Оставшиеся буквы и вспомогательная буква располагаются в порядке убывания вероятностей.
5. Составляется вторая вспомогательная буква, в которую входят m наименее вероятных букв. Вошедшим буквам присваиваются различные символы кода и т. д.
25.2 Властивості ентропії
Энтропия – это количество информации приходящейся на один символ сообщения. Энтропия характеризует источник сообщений с заданным алфавитом и является мерой неопределенности, которая имеется в ансамбле сообщений этого источника. Чем больше энтропия, тем больше информации несет в себе сообщение источника, тем большая неопределенность снимается при получении сообщения.
Обычно энтропия обозначается буквой Н и определяется выражением:
.
Дискретным называется сигнал состоящий из отдельных элементов (букв, символов, импульсов ) принимающих конечное число различных значений.
Свойства энтропии :
1. Энтропия - функция распределения вероятностей.
Энтропия является величиной вещественной ограниченной и неотрицательной, т. е. H>0. Это свойство следует из выражения (I—14) с учетом того, что величины рi являются неотрицательными величинами и заключены в промежутке 0 <= рi <= 1.
Энтропия минимальна и равна нулю, если сообщение известно заранее, т. е. если рi= 1, а р1 = р2 = ... = рi-1 =рi+1 = ...=рn.=0.
Энтропия максимальна, если все состояния элементов сообщений равновероятны. Данное свойство энтропии легко доказывается с помощью методов вариационного исчисления. Мы воспользуемся конечным результатом, согласно которому Н = Нтах, если
,
4.Энтропия бинарных сообщений может изменяться от нуля до единицы. Бинарные сообщения характеризуются использованием двоичного алфавита, т. е. т = 2. Для таких сообщений
25.3 Перетворення сигналів при ущільненні повідомлення.
Уплотнение при передаче информации делают для передачи большего количества каналов по одной линии передачи.
П ри частотном уплотнении разные каналы разносят на поднесущие так, чтоб их спектры не перекрывались. Перенос спектра сообщений осуществляется канальными преобразователями в процессе модуляции поднесущих частот канальными сообщениями.
П ри временном уплотнении во время паузы импульсов одного канала помещают импульсы других каналов, за счет чего уплотняют временной ресурс. В системах с временным уплотнением возможно использование АИМ и ШИМ. На первой ступени используется такой вид модуляции, при котором амплитуда поднесущей не изменяется (ЧМ и ШИМ). На второй ступени – амплитудная модуляция непрерывной или импульсной несущей. Сформированные таким образом канальные сигналы суммируются, и получается многоканальное сообщение. На выходе с помощью временных селекторов и частотных фильтров происходит канальное разделение сигналов.
Также существует кодовое уплотнение сигналов. При этом частотный и временной ресурс используются всеми источниками одновременно. Однако производится дополнительное преобразование: сообщения ортогонализируются относительно к другим сообщениям абонентов с помощью умножения на функции Уолша. Эти функции представлены заранее известными кодами, которые синхронны между собой. Для выделения сигналов строят систему взаимных функций.