Добавил:
Upload Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:
прошлогодняя шпора.doc
Скачиваний:
33
Добавлен:
17.04.2019
Размер:
1.43 Mб
Скачать

45.Шум квантования.

При квантовании мы аппроксимируем исходный аналоговый сигнал уровнями квантования, число которых конечно. Мы не можем заранее предсказать значение неквантованных выборок. Следовательно, не можем предсказать значения ошибок квантования. По этому ошибки квантования представляются моделью случайных шумов. Мощность такого шума пропорциональна квадрату шага квантования, а так как шаг квантования обратно пропорционален количеству уровню квантования q, то мощность шума обратно пропорциональна q2.

Воздействие всех шумов (в т.ч. и шума квантования) характеризуется показателем, который называется отношением сигнал/шум или SNR (Signal – Noice Ratio).

Можно показать, что при равномерном квантовании (S/N) отношение SNR определяется формулой: То при увеличении количества уровня квантования воздействие шума квантования на полезный квантуемый сигнал уменьшается стремясь к 0.

46.Импульсно кодовая модуляция квантованных выборок аналогового сигнала.

Последним этапом форматирования аналогового сигнала является получение последовательности двоичных цифр. В результате дискретизации и квантования мы получили последовательность значений, выраженных в уровнях квантования. Преобразование этой последовательности в двоичные цифры называется ИКМ (PCM – Pulse Code Modulation).

Следует различать PCM коды и РСМ сигналы. Последовательность битов, которые нужно передать называется кодами РСМ. Эти коды нужно передать через узкополосный канал. (пара проводников), для этого следует сформировать последовательность электрических импульсов, соответствующих передаваемой последовательности битов. Эти импульсы называются сигналами РСМ.

47.Кодирование источников определения.

48.Дискретные источники и их характеристики.

Для того, чтобы задать конечный дискретный источник необходимо:

  1. Задать алфавит

  2. Задать вероятности для каждого из символов алфавита.

Количество информации или само-информации любого символа определяется по формуле:

Если основанием логарифма является 2, то само-информация измеряется в битах. Существует другая единица, называемая нат, если в формуле фигурирует натуральный логарифм. Среднее количество информации для символов дискретного источника есть:

Величина Н называется энтропией источника и является мерой неопределенности, которая разрешается с помощью алфавита х*. Источник уменьшает неопределенность. Н (бит/символ).

Ее значение лежит в диапазоне [0;log2s)]. Когда определенность отсутствует и равна log2s) при максимальной определенности, тогда все вероятности одинаковы.

Соседние файлы в предмете [НЕСОРТИРОВАННОЕ]