Характеристики системы передачи информации Каналы передачи информации
Канал связи представляет собой совокупность технических средств для передачи сообщений из одной точки пространства в другую. С точки зрения теории информации физическое устройство канала несущественно. Источник сообщений(ИС) имеет выходной алфавит символовA={аi},i=1..n - количество информации, приходящееся в среднем на один символ источника:
где pi, - вероятность появления символаai, на выходе источника, символы источника считаются независимыми. Канал связи имеет алфавит символовB={bj},j=1..m, среднее количество информации в одном символе канала
где qj - вероятность появления символаbi, в канале.
Техническими характеристиками канала связи являются:
техническая производительность источника A - среднее число символов, выдаваемых источником в единицу времени;
техническая пропускная способность канала связи B - среднее число символов, передаваемое по каналу в единицу времени.
Информационной характеристикой источника является информационная производительность. По определению, информационная производительность - это среднее количество информации, выдаваемое источником в единицу времени.
В канале без помех информационными характеристиками являются:
1 ) скорость передачи информации по каналу
2) пропускная способность канала
где {P} - множество всех возможных распределений вероятностей символов алфавитаВ канала. С учетом свойств энтропии
CK=B.log2m.
В канале с помехами в общем случае входной и выходной алфавиты не совпадают. Пусть
BВХ=X={x1,x2,…,xn};
BВЫХ=Y={y1,y2,…,ym}.
Если отправленный на входе канал символ хк опознан в приемнике какyi иiK, то при передаче произошла ошибка. Свойства канала описываются матрицей переходных вероятностей (вероятность приема символауi, при условии, что посланхk):
|| P(yi|xk) ||, k=1..n, i=1..m.
Справедливо соотношение:
Среднее количество информации на один входной символ канала:
pi=p(xi).
Среднее количество информации на выходной символ канала:
Информация, которую несет выход канала о входе:
I(Y,X)=H(X)-HY(X)=H(Y)-HX(Y).
Здесь Ну(Х) - условная энтропия входного символа канала при наблюдении выходного символа (ненадежность канала),Нх(Y) - условная энтропия выходного символа канала при наблюдении входных символов (энтропия шума).
Скорость передачи информации по каналу с помехами:
dI(B)/dt=BI(X,Y).
Пропускная способность канала с помехами:
где { р} - множество всех возможных распределений вероятностей входного алфавита символов канала.
Рассмотрим пример
Найти пропускную способность двоичного симметричного канала (канала с двухсимвольными входными и выходными алфавитами) и одинаковыми вероятностями ошибок (рис.1), если априорные вероятности появления входных символов:P(x1)=P1=P, P(x2)=P2=1-P.
Решение. В соответствии с моделью канала условные вероятности
P(y1 | x2) = P(y2 | x1) = Pi,
P(y1 | x1) = P(y2 | x2) = 1-Pi.
Пропускная способность канала - CK=B.max{H(Y)-H(X|Y)}. Найдем энтропию шума:
По теореме умножения: P(yjxi)=P(xi)P(yj|xi), следовательно,
P(x1y1)=P(1-Pi), P(x2y1)=(1-P)Pi,P(x1y2)=PPi,P(x2y2)=(1-P)(1-Pi).
Подставляя в формулу, получаем:
Таким образом, H( Y|X ) не зависит от распределения входного алфавита, следовательно:
Определим энтропию выхода:
Вероятности P(y1) иP(y2) получаем следующим образом:
P(y1)=P(y1x1)+P(y1x2)=P(1-Pi)+(1-Pi)Pi, P(y2)=P(y2x1)+P(y2x2)=PPi+(1-P)(1-Pi).
Варьируя Р, убеждаемся, что максимальное значение H(Y), равное 1, получается при равновероятных входных символахP(y1) иP(y2). Следовательно,
Задача. Найти пропускную способность канала с трехсимвольными входными и выходными алфавитами (x1,x2,x3 иy1,y2,y3соответсвенно). Интенсивность появления символов на входе каналаk=V.10 символов/с.
Вероятности появления символов:
, , .
Вероятности передачи символов через канал связи:
,,,
,,,
,,.
4. КОДИРОВАНИЕ ИНФОРМАЦИИ
4.1. Общие сведения Кодом называется:
- правило, описывающее отображение одного набора знаков в другой набор знаков или в набор слов без знаков;
- множество образов, получающихся при таком отображении.
В технических кодах буквы, цифры и другие знаки почти всегда кодируются двоичными последовательностями, называемыми двоичными кодовыми словами. У многих кодов слова имеют одинаковую длину (равномерные коды).
Выбор кодов для кодирования конкретных типов сообщений определяется многими факторами:
- удобством получения исходных сообщений из источника;
- быстротой передачи сообщений через канал связи;
- объёмом памяти, необходимым дня хранения сообщений;
- удобством обработки данных;
- удобством декодирования сообщений приемником.
Закодированные сообщения передаются по каналам связи, хранятся в ЗУ, обрабатываются процессором. Объемы кодируемых данных велики, и поэтому во многих случаях важно обеспечить таксе кодирование данны:'., которое характеризуется минимальной длиной получающихся сообщений, Это проблема сжатия данных. Существуют два подхода сжатия данных:
- сжатие, основанное на анализе статистических свойств кодируемых сообщений.
Сжатие на основе статистических свойств данных называется так же теорией экономного или эффективного кодирования. Экономное кодирование основано на использовании кодов с переменной длиной кодового слова, например, код Шеннона-Фано, код Хафмана /31. Идея использования кодов переменной длины для сжатия данных состоит в том, чтобы сообщения с большей вероятностью появления ставить в соответствие кодовые комбинации меньшей длины и, наоборот, сообщения с малой вероятностью появления кодировать словами большей длины. Средняя длина кодового слова определяется с.о.:
где /, - длина кодового слова для кодирования i - го сообщения; pt - вероятность появления i - го сообщения.
4.2. Задания
4.2.1. Из табл.4 выбрать дня последующего кодирования исходный алфавит, содержащий 10 символов, начиная с N-ro (N -порядковый номер студента в журнале группы). Пронормировать вероятности символов.
4.2.2. Пронормировать выбранный в п.4.2.1. исходный алфавит равномерным двоичным кодом, кодом Шеннона-Фано, кодом Хафмана. Для каждого варианта кодирования рассчитать минимальное, максимальное, среднее значение длины кодового слова. Проанализировать результаты.
4.2.3. Проделать задание 4.2.2. для троичного кода.
Таблица 4
N |
символ |
Р |
N |
символ |
Р |
N |
символ |
Р |
N |
символ |
Р |
1 |
А |
0,062 |
10 |
К |
0,028 |
19 |
у |
0,021 |
28 |
Э |
0,003 |
2 |
Б |
0,014 |
11 |
Л |
0,035 |
20 |
ф |
0,002 |
29 |
Ю |
0.018 |
3 |
В |
0,038 |
12 |
м |
0,026 |
21 |
X |
0,009 |
30 |
Ъ |
0,009 |
4 |
Г |
0,013 |
13 |
н |
0,053 |
22 |
Ц |
0,004 |
31 |
|
|
5 |
д |
0,025 |
14 |
о |
0,090 |
23 |
ч |
0,012 |
|
|
|
6 |
Е |
0,072 |
15 |
п |
0,023 |
24 |
ш |
0,006 |
|
|
|
7 |
Ж |
0,007 |
16 |
Р |
0,040 |
25 |
Щ |
0,003 |
|
|
|
8 |
3 |
0,016 |
17 |
с |
0,053 |
26 |
ь |
(M¥L |
|
|
|
9 |
И |
0,062 |
18 |
т |
0,053 |
27 |
ъ |
одй1 |
|
|
|
4.3. Указания к выполнению отдельных заданий К заданию 4.2.1. Нормирование вероятностей производится по формуле:
/W-HO / *Рк ' JC=AT
где Pi - вероятности появления символов, приведенные в табл.4.
К заданию 4.2.2. Правила построения двоичных кодов изложены в /4,6/.
К заданию 4.2.3. При построении троичного кода в качестве кодовых слов берутся слова, записанные в троичной системе счисления. Оптимальный троичный код строится с помощью процедуры Хафмана (с помощью процедуры Шеннона-Фано строится субоп-тимальный код). При этом разбиение алфавита ведется на три группы, первой группе приписывается "О", второй - "1", третьей - "2".
ПРИЛОЖЕНИЕ 1