Добавил:
Upload Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:
shpory_na_Abaka.doc
Скачиваний:
5
Добавлен:
14.09.2019
Размер:
1.76 Mб
Скачать

9.2 Скорость передачи информации

При передаче информации скорость передачи является составляющей. Есть причины которые ограничивают скорость передачи информации.

Если количество информации в принимаемых сообщениях равно I, а общая длительность сообщения равна t, то скорость передачи информации будет равна:

V=I/t, бит/с или же , где – средняя длительность символов сообщения.

Если , то

Скорость передачи можно повышать увеличением энтропии источника или уменьшением длительности символов сообщения. Но энтропия ограничена своим максимальным значением , а уменьшение длительностей символов ограничена шириной полосы пропускания канала, так как при уменьшении длительности символов происходит расширение спектра передаваемого сигнала. Значит и скорость не может повышаться бесконечно.

В реальности не существует идеальных каналов связи. В реальных каналах присутствует определенное количество помех. Формула скорости передачи информации в реальном канале:

,

где – энтропия принятого сообщения,

– энтропия помехи,

– длительность сообщения.

Максимально возможная скорость передачи информации в канале определяет пропускную способность канала связи:

9.3 Виды ошибок при передаче и воспроизведении информации

В реальном канале сигнал при передаче искажается, и сообщение воспроизводится с некоторой ошибкой. Причиной таких ошибок являются искажения, вносимые каналом и помехами, действующими на сигнал. Ошибка это неправильный прием одного или нескольких символов. В двоичных каналах, ошибка представляет собой переход 0→1 или 1→0. Кратность ошибки определяет количество неправильно принятых символов.

Пример однократной ошибки:

Для частичной характеристики взаимного расположения искаженных символов используется понятие пакетная ошибка, которая определяет расстояние между первым и последним неправильно принятым символами. Внутри пакета могут находиться неискаженные символы.

Пример пакетной ошибки:

l – длинна пакета

Ошибки делятся на четные и нечетные, в зависимости от количества искаженных символов, четные ошибки – искажено парное количество символов, и наоборот.

10.1 Распределения с максимальной энтропией

Энтропия - это количество информации, приходящейся на 1 символ сообщения. Энтропия показывает неопределенность источника.

Для дискретных сообщений

Энтропия максимальна Н = Нтах, если все состояния элементов сообщений равновероятны если , - алфавит.

,

График зависимости величины одного слагаемого от

В непрерывных сообщениях вероятность появления каждого отдельного символа равна нулю.

ДЛЯ НОРМАЛЬНОГО ЗАКОНА РАСПРЕДЕЛЕНИЯ:

  • Среднеквадратичное значение сообщения ограничено:

,

где – дисперсия случайной величины.

  • Также условие полной вероятности:

С ообщение будет максимально информативным, когда оно имеет нормальный закон распределения: ,

и для него

ДЛЯ РАВНОМЕРНОГО ЗАКОНА РАСПЕРЕДЕЛЕНИЯ

Значения сообщений ограничены некоторым интервалом ( ).

Так же соблюдается: .

Функция распределения в этом случае

В этом случае :

Соседние файлы в предмете [НЕСОРТИРОВАННОЕ]