Добавил:
Upload Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:
Образец_КР по ТЭС.doc
Скачиваний:
33
Добавлен:
25.11.2018
Размер:
698.37 Кб
Скачать
  1. Пропускная способность разработанной системы связи

Чтобы сравнить между собой различные источники сообщений и различные каналы связи, необходимо ввести некоторую количественную меру, позволяющую оценивать содержащуюся в сообщении и переносимую сигналом информацию. Строгие методы количественного определения информации были предложены К. Шенноном и привели к построению теории информации, являющейся математической основой теории связи, информатики и ряда смежных отраслей науки и техники.

Для определения количества информации в сообщении необходимо основываться только на том параметре, который характеризует в самом общем виде сообщение xi из ансамбля X. Таким параметром является вероятность P(xi) того, что источник посылает данное сообщение. Следовательно, количество информации I(xi), содержащееся в сообщении xi должно быть функцией от Р(xi):

I(xi) = - log2[P(xi)] ( 31)

Информация измеряется в двоичных единицах или битах.

1 Бит – это информация, заключенная в сообщении о событии, которое с равной вероятностью может произойти и не произойти, т.е. P(xi) = 0.5:

I(xi) =- log2[P(xi)] = - log2[0.5] = 1 бит.

Количество информации в сообщении тем больше, чем оно менее вероятно, или, иначе, чем оно более неожиданно.

В теории информации чаще всего необходимо знать не количество информации, содержащееся в отдельном сообщении, а среднее количество информации в одном сообщении, создаваемым источником.

Если имеется ансамбль (алфавит) из m сообщений x1, x2, … , xm с вероятностями P(x1), P(x2), … , P(xm), то для характеристики всего ансамбля (или источника) сообщений используется математическое ожидание количества информации, называемое энтропией.

Энтропия – это количество информации, приходящееся в среднем на одно сообщение при объеме алфавита в m символов:

H(X) = M{ I(xi ) }= (32)

Чем больше энтропия источника, тем больше степень неожиданности передаваемых им сообщений в среднем, т.е. тем более неопределенным является ожидаемое сообщение. Поэтому энтропию часто называют мерой неопределённости сообщений.

Энтропия является основной характеристикой источника. Она характеризует источник сообщений с точки зрения неопределенности выбора того или иного сообщения. Неопределенность максимальна при равенстве вероятностей выбора каждого сообщения

P(xi) = 1/m.

В этом случае: H(X) = Hmax(X ) =

Чем выше энтропия, тем труднее передать сообщение по каналу связи.

Увеличение объёма алфавита влечет увеличение энтропии.

Реальные сообщения чаще всего зависимы. Если источник передает последовательность зависимых между собой сообщений, то получение предшествующих сообщений может изменить вероятность последующего, а следовательно и количество информации в нем. Оно должно определяться по условной вероятности передачи данного сообщения xk при известных предшествовавших xk-1, xk-2 …: I( xk ‌‌| xk-1, xk-2,…) = - log2[P( xk | xk-1, xk-2, …)] .

Определенное выше количество информации является случайной величиной, поскольку сами сообщения случайные. Его распределение вероятности определяется распределением вероятности сообщений в данном ансамбле.

Производительность источника определяется количеством информации, передаваемой в единицу времени. Если источник сообщений имеет фиксированную скоростью Vи=1/T, т.е. затрачивает на каждое сообщение время Т, то определим производительность такого источника H'(X) как энтропию сообщений, переданных за единицу времени:

H'(X) =, (33)

Если же различные сообщения имеют разную длительность, то необходимо учитывать среднюю длительность, равную математическому ожиданию величины Т.

Скорость передачи информации: R(x) = , (34)

Максимальное количество переданной информации, взятое по всевозможным источникам входного сигнала, характеризует сам канал и называется пропускной способностью канала, которая вычисляется по формуле Шеннона:

С = ΔF·, (35)

Энтропия двоичного источника сообщений, передаваемых по дискретному каналу связи с априорными вероятностями P(S1)=0.25 P(S2)=0.75:

H(X) = -P(S1)·log2[P(S1)] - P(S2)·log2[P(S2)], (36)

H(X) = -0.25·log2[ 0.25 ] - 0.75·log2[ 0.75 ] = 0.811

Чтобы судить о том насколько близка энтропия источника к максимальной вводят понятие избыточности источника сообщений:

(37)

Так как в нашем случае алфавит состоит из двух символов, т.е. m=2, то Hmax(X ) = log2(2) = 1, следовательно, избыточность источника:

Производительность: H'(X) =

Увеличить производительность можно путем уменьшения длительности элементов сообщения, но эта возможность ограничивается полосой пропускания канала связи, поэтому производительность источника можно увеличить за счет более экономного использования полосы пропускания (например, путем применения сложных многоуровневых сигналов).

Вычислим по формуле Шеннона пропускную способность непрерывного канала связи для известной полосы пропускания канала и отношения сигнал/шум: ΔF=ΔfпрДЧМ=5.1·105

С = Δfпр ДЧМ·10.13·105

Вычислим пропускную способность дискретного канала связи с учетом вычисленной вероятности ошибки:

(38)

При m=2 и p= пропускная способность дискретного канала связи равна:

Оценим эффективность использования пропускной способности непрерывного канала связи при передаче дискретных сигналов:

пропускная способность непрерывного канала связи: 10.13·105

пропускная способность дискретного канала связи: 1.51·105