- •1 Нормативні дані з дисципліни
- •2. Мета і завдання дисципліни
- •3 Перелік забезпечуючих дисциплін
- •4 Структура залікових кредитів
- •5 Навчально–методичне забезпечення дисципліни
- •5.1 Література
- •5.2 Методичні посібники та вказівки
- •Лекція 1 Система передачі інформації. Основні поняття і визначення
- •1. Місце інформаційних систем у сучасному світі
- •2. Класифікація систем передачі інформації
- •3. Узагальнена структурна схема системи передачі інформації
- •4.Основні інформаційно-технічні характеристики спи
- •4.1 Вірогідність передачі інформації
- •Завадостійкість передачі інформації
- •Швидкість передачі інформації
- •Пропускна здатність каналів зв'язку
- •Висновки
- •Тестові запитання
- •1.Кількість інформації в повідомленні
- •Логарифмічна міра добре відображає адитивність інформації.
- •2 .Джерело дискретних повідомлень і його ентропія
- •Ентропію джерела не рівноімовірних попарно залежних повідомлень, позначимо , дамо розрахункову формулу
- •3.Джерело неперервних повідомлень
- •Висновки
- •Тестові запитання
- •Практичне заняття №1
- •Задачі для самостійного розв’язання
- •Лекція 3 Передача інформації з дискретними і неперервними каналами зв'язку
- •1.Продуктивність джерела дискретних повідомлень
- •2.Швидкість передачі інформації з дискретних каналів без перешкод. Оптимальне статистичне кодування
- •3.Швидкість передачі інформації й пропускна здатність дискретних каналів з завадами
- •4.Пропускна здатність двійкового симетричного каналу зв'язку з завадами
- •5.Швидкість передачі інформації неперервними каналами з завадами.
- •6. Пропускна здатність неперервного каналу з нормальним білим шумом
- •Пропускна здатність неперервного каналу зв'язку при довільних спектрах сигналів і завад.
- •Висновки
- •Тестові запитання
- •Практичне заняття №2
- •Задачі для самостійного розв’язання
- •Лекція 4 завадостійке кодування. Основні положення теорії завадостійкого кодування
- •1.Постановка задачі застосування завадостійких кодів
- •2.Класифікація завадостійких кодів
- •3. Основні числові характеристики завадостійких кодів
- •4.Кодова відстань і її зв'язок із кратністю помилок що виявляються й або, що виправляються.
- •Висновки
- •Лекція 5 Систематичні блокові лінійні коди
- •Загальні методи кодування і декодування систематичних блокових лінійних кодів
- •Код з парним числом одиниць
- •Інверсний код
- •Код з подвоєнням елементів
- •Коди Хемінга
- •Висновки
- •Лабораторна робота №1 вивчення принципу дії та дослідження завадостійкості радіосистеми передавання інформації із блоковим кодом
- •1 Мета роботи
- •2 Методичні вказівки
- •Позиції, що займають одиниці в одиничній матриці, вказують номера позицій контрольних символів, що використовуються у кожній перевірці на парність.
- •3 Опис лабораторної установки
- •4 Порядок виконання роботи
- •6 Контрольні запитання і завдання
- •Лекція 6 циклічні коди
- •Основні властивості циклічного коду й способи побудови
- •Способи кодування і декодування циклічних кодів
- •Матричне подання циклічних кодів
- •Висновки
- •Тестові запитання
- •Лабораторна робота №2 Вивчення властивостей і принципів побудови циклічних кодів.
- •1 Ціль роботи
- •2 Методичні вказівки
- •3 Порядок виконання роботи
- •5 Контрольні запитання.
- •Практичне заняття №3
- •Розв’язання. Визначимо кількість інформаційних і контрольних символів у кодовій комбінації:
- •Задачі для самостійного розв’язання
- •Лекція 7 Оптимальний когерентний прийом дискретних сигналів
- •1.Основні положення теорії оптимального приймання сигналів
- •Синтез, правила розрізнення сигналів у випадку приймання повністю відомих сигналів на фоні нормального білого шуму
- •Структурні схеми оптимальних приймачів
- •Обчислення завадостійкості (імовірності помилок розрізнення сигналів) оптимальних когерентних приймачів
- •Виходячи з цього, можна записати формули для обчислення імовірностей помилок в системах когерентного приймання фазовою, частотною та амплітудною маніпуляцією.
- •Висновки
- •3 Порядок виконання роботи
- •5 Контрольні запитання
- •Лекція 8 оптимальний некогерентний прийом дискретних сигналів і його завадостійкість
- •Модель лінії зі змінними параметрами
- •Алгоритм прийняття рішення при прийманні сигналів з випадковою початковою фазою
- •Приймання сигналів з випадковою початковою фазою і флуктуючою амплітудою
- •Некогерентні приймачі сигналів з використанням обробки за огинаючою
- •Некогерентний приймач ортогональних сигналів
- •Приймання сигналів з випадковою початковою фазою при використанні відносної фозової маніпуляції
- •Висновки
- •Тестові запитання
- •3 Порядок виконання роботи.
- •4 Структура звіту
- •5 Контрольні запитання і завдання
- •Практичне заняття № 4 "Когерентне и не когерентне приймання дискретних сигналів та його завадостійкість"
- •Приклади розв’язання основних типів задач
- •Задачі для самостійного розв’язання
- •Лекція 9 оптимальний і квазиоптимальНіЙ прийом неПерервних сигналів і його завадостійкість
- •1.Особливості приймання неперервних сигналів з аналоговою модуляцією
- •2. Завадостійкість прийому сигналів з амплітудною модуляцією
- •3.Завадостійкість прийому сигналів з фазовою модуляцією
- •4.Завадостійкість прийому сигналів з частотною модуляцією
- •Висновки
- •Лекція 10 цифрові методи передачі неЗперервних повідомлень
- •Імпульсно – кодова модуляція
- •2.Завадостійкисть систем зв’язку з імпульсно-кодовою модуляцією
- •3.Диференціальна імпульсно-кодова модуляція. Дельта модуляція
- •Висновки
- •Тестові запитання
- •Практичне заняття № 5
- •Приклади розв’язання основних типів задач
- •Задачі для самостійного розв’язання
- •Лекція 11 багатоканальні системи передачі інформації
- •1.Узагальнена структура багатоканальної системи зв’язку
- •2.Системи зв’язку із частотним поділом каналів
- •3Системи зв’язку із часовим поділом каналів
- •Висновки
- •Тестові запитання
- •Лекція 12
- •1. Поняття про багатостанційний доступ
- •Системи з часовим поділом каналів
- •Системи із частотним поділом каналів
- •Системи з кодовим поділом каналів
- •Асинхронно-адресні системи передачі інформації (аас)
- •Висновки
3.Джерело неперервних повідомлень
Покладемо, що ми маємо джерело безперервних повідомлень , що описується щільністю ймовірності w(x).
Оскільки всі повідомлення описуються функцією з обмеженим спектром, вони можуть бути дискретизовані за часом відповідно до теореми Котельникова й ми можемо передавати не самі повідомлення, а їхнього значення в крапках відліку
Для однозначного відтворення необхідно дотримуватись умови
,
Де верхня частота спектра повідомлення,
- частота дискретизації.
В реальних системах зв'язку .
Доцільно передавати не всю шкалу значень рівнів сигналів . Для цього крім дискретизації за часом здійснюється квантування за рівнями m:
,
.
Імовірність влучення значення в інтервал
.
Тоді ентропія одного відліку квантованого повідомлення
При
Якщо , .
- диференціальна ентропія, що залежить від статистичних властивостей джерела,
- залежить від кількості рівнів квантування і визначає технічну похибку цифрових систем передавання повідомлень, яка не залежить від статистичних властивостей повідомлень.
Висновки
В лекції розглянутий сенс терміну «інформація», обґрунтовано введення логарифмічної міри кількості інформації, як міри невизначеності джерела (середньої кількості інформації на одне повідомлення джерела), виведені формули для обчислення ентропії джерел незалежних і залежних дискретних і неперервних повідомлень.
Тестові запитання
1. Якою з формул визначається кількість інформації в дискретному повідомленні?
1)
2)
3)
4)
2. Повідомлення з якою імовірністю передачі містить одну двійкову одиницю інформації (біт)?
1)
2)
3)
4)
3. Якою з формул визначається середня кількість інформації в повідомленні джерела дискретних незалежних повідомлень?
1)
2)
3)
4)
4. Якою з формул визначається ентропія джерела дискретних незалежних повідомлень?
1)
2)
3)
4)
5. Якою з формул визначається ентропія джерела попарно залежних повідомлень?
1)
2)
3)
4)
6. Якою з формул визначається надмірність джерела дискретних повідомлень?
1)
2)
3)
4)
7. Якою з формул визначається ентропія джерела неперервних повідомлень?
8. Якою з формул визначається диференціальна ентропія джерела неперервних повідомлень?
9. Чому дорівнює ентропія джерела дискретних рівно імовірних незалежних повідомлень, якщо ємність алфавіту m = 64?
1) біт
2) біт
3) біт
4) біт
10. Джерело дискретних незалежних повідомлень формує 4 повідомлення з апріорними ймовірностями ; ; . Чому дорівнює ентропія джерела ?
Н=1,5 біт
2) Н=1,75 біт
3) Н=2,0 біт
4) Н=2,25 біт
Практичне заняття №1
«Інформаційні характеристики дискретних і когерентних повідомлень»
Мета - з використанням вивченого теоретичного матеріалу навчитися обчислювати кількість інформації, містяться в повідомленнях різної фізичної природи, оцінити ентропію джерел різних дискретних і безперервних повідомлень. Спочатку приводяться приклади рішення різних практичних завдань, потім формуєте умови задач для сасостоятельного рішення, причому числові значення рішеня завдань дано в 10 варіантах.
Приклад 1. Визначити ентропію повідомлення із 6 літер, якщо загальна кількість букв в алфавіті дорівнює 32 і всі повідомлення рівноімовірні.
Розв’язання. Загальна кількість шестилітерних повідомлень .
Використовуючи формулу для визначення ентропії рівноімовірних повідомлень, отримаємо
Приклад 2. Вимірювана величина x змінюється в межах від до і розподілена по закону рівної імовірності. Знайти диференціальну ентропію величини , якщо дорівнює 32 нормованим одиницям.
Розв’язання. Закон рівної імовірності можна аналітично подати у вигляді
Ентропія дорівнює
Приклад 3. Закодувати оптимальним статистичним кодом за схемою Шеннона-Фано ансамбль повідомлень джерела {xi}, якщо повідомлення статистично незалежні та задані апріорні імовірності їх появи на виході джерела p(хі).
p (х1)= 0,1 ;p (х2) = 0,2; p (х3 ) = 0,05; p (х4) = 0,25; p (х5) = 0,1; p(х6) = 0,05; p(х7) = 0,15; p (х8) = 0,1.
Розв’язання. Кодування за методом Шеннона-Фано здійснюється у такий спосіб. Всі повідомлення записуються в таблицю в порядку зменшення їх імовірності. Потім вся сукупність повідомлень розбивається на дві приблизно рівні групи. Всім повідомленням верхньої групи приписується перший кодовий символ “1”, а повідомленням нижньої групи – символ “0”. Потім кожна група аналогічно розбивається на підгрупи за можливістю з однаковими імовірностями, при цьому верхнім підгрупам в обох групах приписується символ “1” (другий символ кодової комбінації), а нижнім – символ “0”. Ця процедура здійснюється доти, доки в кожній підгрупі не залишиться по одному повідомленню. Процес кодування наведений нижче.
Повідомлення |
р (хі) |
Кодування |
Кодова комбінація |
Кількість знаків ni |
I (xi) |
1 |
2 |
3 |
4 |
5 |
6 |
х4 |
0,25 |
11 |
11 |
2 |
2,0 |
х2 |
0,2 |
10 |
10 |
2 |
2,33 |
х7 |
0,15 |
011 |
011 |
3 |
2,745 |
х1 |
0,1 |
010 |
010 |
3 |
3,33 |
х5 |
0,1 |
0011 |
0011 |
4 |
3,33 |
х8 |
0,1 |
0010 |
0010 |
4 |
3,33 |
х3 |
0,05 |
0001 |
0001 |
4 |
4,33 |
х6 |
0,05 |
0000 |
0000 |
4 |
4,33 |
Жодна коротка кодова комбінація не має бути початком більш довгої. Середня довжина кодової комбінації обчислюється за формулою
При оптимальному двійковому кодуванні ентропія
При розв’язанні задачі завжди повинна виконуватись умова
.
Приклад 4. Джерелом інформації є вимірювальний датчик випадкового процесу , рівномірно розподіленого в межах від 0 до 256 нормованих одиниць. Визначити кількість інформації, яку отримують в результаті одного заміру значення цього випадкового процесу, якщо похибка вимірювання розподілена по нормальному закону і середнє квадратичне значення похибки
Розв’язання. Диференціальна ентропія випадкової величини
біт.
Диференціальна ентропія похибки вимірювання
біт.
Кількість інформації, яку отримують в результаті одного виміру, визначається різницею між ентропією самої величини і ентропією похибки
біт.
Приклад 5. Повідомлення складені із рівноімовірного алфавіту, який містить якісних ознак (тобто можливих елементарних символів). Визначити, чому дорівнює кількість символів в прийнятому повідомленні, якщо відомо, що воно містить 42 біта інформації, та чому дорівнює ентропія цього повідомлення.
Розв’язання. Кількість символів n в складному повідомленні визначається з формули
біт.
Тобто .
Ентропія повідомлення дорівнює ентропії джерела
біт/символ.
Приклад 6. В повідомленнях, які складаються із п’яти різних символів, відомі імовірності їх появи: , ; ; ; . Всього в повідомленні прийнято 40 символів. Визначити кількість інформації в цьому повідомленні. Визначити кількість інформації в повідомленні з такою ж кількістю знаків, якщо символи рівномірні.
Розв’язання. Кількість інформації в повідомленні визначається за формулою
біт.
У випадку, коли символи рівномірні, кількість інформації в повідомленні
біт.
Приклад 7. Визначити обсяг і кількість інформації у тексті «Ще не вмерла України і слава і доля.», переданому стандартним 7-значним телеграфним кодом. Імовірності букв українського алфавіту наведені у додатку 4.
Розв’язання. Кількість прийнятих символів, включаючи пробіл, .
Обсяг інформації
символів.
Кількість інформації:
а) для рівноімовірного алфавіту, який складається із 32 букв (включаючи пробіл і апостроф)
біт;
б) для нерівномірного алфавіту (не враховуючи статистичні зв’язки між буквами і пробіл)
біт.
Приклад 8. Відомо, що одне із М можливих повідомлень, які передаються рівномірним двійковим кодом, містить 3 біти інформації. Визначити, чому дорівнює М.
Розв’язання. Відомо, що кількість біт інформації в повідомленні визначається формулою:
.
Звідси .
Приклад 9. Алфавіт джерела складається з трьох букв А, В, С. Скласти максимальну кількість повідомлень, комбінуючи по три букви в повідомленні. Яка кількість інформації міститься в одному такому повідомленні?
Розв’язання. Загальна кількість можливих повідомлень дорівнює
,
де m – кількість первинних символів алфавіту;
n – кількість символів в повідомленні;
.
Можливі повідомлення:
AAA BAA CAA
AAB BAB CAB
AAC BAC CAC
ABA BBA CBA
ABB BBB CBB
ABC BBC CBC
ACA BCA CCA
ACB BCB CCB
ACC BCC CCC
Кількість інформації в повідомленні у випадку їх передавання з рівними ймовірностями
біт.