- •Завдання №1
- •Завдання №5
- •Згідно до технічного завдання маємо десять незалежних повідомлень, очевидно спектр кожного повідомлення перенесеться на свою власну піднесучу
- •4.1 Решение задачи №1
- •4.2 Решение задачи №2
- •4.3 Решение задачи №3
- •Решение задачи №4
- •4.5 Решение задачи №5
- •Розв’язок задачі №1
- •Відповідь: втрати інформації становлять 1.076 біт/символ.
- •4 Циклічні коди
- •3.5. Розв’язок задачі №5
- •За умовою задачі
- •1 Міра кількості інформації
- •2 Інтервал кореляції
- •3 Оптимальні коди
- •4 Циклічні коди
- •5 Багатоканальні системи передачи інформації
- •1 Технічне завдання
- •3.1 Розв’язання задачі №1
- •3.2 Розв’язання задачі №2
- •3.3 Розв’язання задачі №3
- •3.4 Розв’язання задачі №4
- •3.5 Розв’язання задачі №5
- •3.1. Розв’язок задачі №1
- •Відповідь: втрати інформації становлять 1.076 біт/символ.
- •3.2. Розв’язок задачі №2
- •3.3. Розв’язок задачі №3
- •3.4. Розв’язок задачі №4
- •Прийнята кодова комбінація циклічного коду має вигляд
- •3.5. Розв’язок задачі №5
- •За умовою задачі
- •2.1 Розв′язання задачі №1
- •2.2 Розв′язання задачі №2
- •2.3 Розв′язання задачі №3
- •2.4 Розв′язання задачі №4
- •2.5 Розв′язання задачі №5
- •Згідно до технічного завдання, маємо десять незалежних повідомлень, очевидно спектр кожного повідомлення перенесеться на свою власну піднесучу (рис.2.5.3) :
- •1.1 Розв’язок задачі №1
- •1.2 Розв’язок задачі №2
- •1 .3 Розв’язок задачі №3
- •1.4 Розв’язок задачі №4
- •1.5 Розв’язок задачі №5
- •4 Циклічні коди
- •1 Определение энтропии источника
- •2 Определение ширины спектра
- •3 Построение кода Хаффмана
- •4 Ошибки при передаче
- •5 Определение полосы частот
- •Завдання 2
- •Завдання 3
- •Задача №1
- •Задача № 2
- •Задача № 3
- •Задача № 4
- •Задача № 5
1 Міра кількості інформації
Джерело повідомлення характеризується статистичною схемою
-
а1
а2
а3
а4
а5
0.4
0.23
0.32
0.03
0.02
Визначити кількість інформації у кожному із символів, знайти ентропію та надмірність джерела.
Отже маємо: .
Кількість інформації в повідомленні за формулою Шеннона[1]:
, (1.1)
де k – кількість символів у повідомленні.
Кількість інформації у кожному із символів (тобто ):
(1.2)
Підставивши числові значення, отримаємо:
[біт]
[біт]
[біт]
[біт]
[біт]
Кількість інформації, що приходиться на один елемент повідомлення, називається питомою інформативністю, чи ентропією. Ентропія характеризує джерело повідомлення з заданим алфавітом і є мірою невизначеності, яка мається в ансамблі повідомлень цього джерела [1].
Ентропія визначається виразом:
(1.3)
Підставивши чисельні значення у (1.3) отримаємо:
[біт]
Ентропія реальних повідомлень найчастіше виявляється менше ентропії відповідного йому оптимального повідомлення. При однаковому числі елементів кількість інформації в реальному повідомленні буде менше, ніж в оптимальному. Щоб описати цю різницю вводиться характеристика – надмірність повідомлень.
Абсолютна надмірність повідомлення характеризується різницею між максимально можливою кількістю інформації та ентропією реального повідомлення:
, (1.4)
а відносна надмірність відповідно:
(1.5)
З основних властивостей ентропії відомо, що
. (1.6)
Отже, підставляючи числові значення у (1.6), (1.4), (1.5), отримаємо:
абсолютна надмірність джерела: [біт],
відносна надмірність джерела: .
2 Інтервал кореляції
Визначити інтервал кореляції стаціонарного випадкового процесу з енергетичним спектром (рис. 2.1):
Визначення інтервалу кореляції τ0 проводиться з використанням поняття ефективної смуги частот повідомлення ∆ωеф, яка визначається як основа прямокутника з висотою, рівною максимальному значенню спектральної щільності Sx(ω)max і площею, рівною площі під кривою спектральної щільності повідомлення [1]:
(2.1)
(2.2)
За принципом дискретизації Желєзнова інтервал кореляції:
(2.3)
Інтервал кореляції реальних повідомлень є обмеженою величиною, тому що внаслідок кінцевої тривалості їх значення в будь-який момент залежить тільки від деякого відрізка минулого обмеженої тривалості (рис. 2.2):
(2.4)
де – кореляційна функція:
τ
τ0
Bx(τ)
0
Bx(0)
Рисунок
2.2
Повна потужність випадкового процесу у точці [3]:
(2.6)
3 Оптимальні коди
Для джерела повідомлень:
-
а1
а2
а3
а4
а5
0.4
0.23
0.32
0.03
0.02
побудувати код, який забезпечує надмірність, меншу 0,5%.
Для випадку, коли відсутній статистичний зв'язок між символами повідомлення, Шенноном і Фано розроблена методика побудови коду, близького до оптимального, і який дає оптимальний результат у тому випадку, коли імовірності p(xi) виражаються негативними ступенями двійки. В оптимальному коді, який називають кодом Шеннона-Фано, використовуються символи “ 0 “ і “ | “, тобто оптимальний код є бінарним ( ).
Правило побудови коду Шеннона-Фано:
1. Символи повідомлення розташовуються в порядку зменьшення їхньої імовірності і розбиваються на дві групи так, щоб суми імовірностей у групах були приблизно однакові.
2. В якості першого символу коду всім буквам, що ввійшли в першу групу, приписується одиниця, а буквам другої групи – нуль.
3. Кожна з отриманих груп знову розбивається на дві підгрупи приблизно з однаковими імовірностями.
4. Буквам перших підгруп в якості наступного символу коду приписується одиниця, а до букв другої підгрупи – нуль і т.д.
Розбивка на підгрупи проводиться доти, поки в кожній підгрупі не залишиться по одній букві [1].
Процедура кодування представлена в табл. 3.1.
Таблиця 3.1
Букви |
Імовірності |
Підгрупи |
Кодові комбінації |
а1 |
0.4 |
|
| |
а3 |
0.32 |
0| |
|
а2 |
0.23 |
00| |
|
а4 |
0.03 |
000| |
|
а5 |
0.02 |
0000 |
Оцінимо ефективність методу Шеннона–Фано, визначивши ентропію отриманого коду. Для цього визначимо імовірності появи символів коду:
(3.1)
де - число символів у кодовій комбінації, що відповідає букві ; - загальне число символів у цій комбінації.
Імовірність появи символу “ | ”:
Оскільки в коді Шеннона-Фано використовуються тільки два символи “ 0 ” і “ | ”, то імовірність появи символу “ 0 ”:
.
Ентропія отриманого коду визначається за формулою (1.3):
(3.2)
Для отриманих значеннь імовірностей ентропія дорівнює:
[біт]
Отриманий результат показує, що імовірності появи символів коду приблизно однакові, а ентропія отриманого коду майже дорівнює максимальній [біт],
За формулою (1.5) надмірність, яку забезпечує отриманий код, визначиться так:
.
Отриманий код близький до оптимального і задовольняє умові, поставленій у завданні: D < 0.5 %.