- •1 Нормативні дані з дисципліни
- •2. Мета і завдання дисципліни
- •3 Перелік забезпечуючих дисциплін
- •4 Структура залікових кредитів
- •5 Навчально–методичне забезпечення дисципліни
- •5.1 Література
- •5.2 Методичні посібники та вказівки
- •Лекція 1 Система передачі інформації. Основні поняття і визначення
- •1. Місце інформаційних систем у сучасному світі
- •2. Класифікація систем передачі інформації
- •3. Узагальнена структурна схема системи передачі інформації
- •4.Основні інформаційно-технічні характеристики спи
- •4.1 Вірогідність передачі інформації
- •Завадостійкість передачі інформації
- •Швидкість передачі інформації
- •Пропускна здатність каналів зв'язку
- •Висновки
- •Тестові запитання
- •1.Кількість інформації в повідомленні
- •Логарифмічна міра добре відображає адитивність інформації.
- •2 .Джерело дискретних повідомлень і його ентропія
- •Ентропію джерела не рівноімовірних попарно залежних повідомлень, позначимо , дамо розрахункову формулу
- •3.Джерело неперервних повідомлень
- •Висновки
- •Тестові запитання
- •Практичне заняття №1
- •Задачі для самостійного розв’язання
- •Лекція 3 Передача інформації з дискретними і неперервними каналами зв'язку
- •1.Продуктивність джерела дискретних повідомлень
- •2.Швидкість передачі інформації з дискретних каналів без перешкод. Оптимальне статистичне кодування
- •3.Швидкість передачі інформації й пропускна здатність дискретних каналів з завадами
- •4.Пропускна здатність двійкового симетричного каналу зв'язку з завадами
- •5.Швидкість передачі інформації неперервними каналами з завадами.
- •6. Пропускна здатність неперервного каналу з нормальним білим шумом
- •Пропускна здатність неперервного каналу зв'язку при довільних спектрах сигналів і завад.
- •Висновки
- •Тестові запитання
- •Практичне заняття №2
- •Задачі для самостійного розв’язання
- •Лекція 4 завадостійке кодування. Основні положення теорії завадостійкого кодування
- •1.Постановка задачі застосування завадостійких кодів
- •2.Класифікація завадостійких кодів
- •3. Основні числові характеристики завадостійких кодів
- •4.Кодова відстань і її зв'язок із кратністю помилок що виявляються й або, що виправляються.
- •Висновки
- •Лекція 5 Систематичні блокові лінійні коди
- •Загальні методи кодування і декодування систематичних блокових лінійних кодів
- •Код з парним числом одиниць
- •Інверсний код
- •Код з подвоєнням елементів
- •Коди Хемінга
- •Висновки
- •Лабораторна робота №1 вивчення принципу дії та дослідження завадостійкості радіосистеми передавання інформації із блоковим кодом
- •1 Мета роботи
- •2 Методичні вказівки
- •Позиції, що займають одиниці в одиничній матриці, вказують номера позицій контрольних символів, що використовуються у кожній перевірці на парність.
- •3 Опис лабораторної установки
- •4 Порядок виконання роботи
- •6 Контрольні запитання і завдання
- •Лекція 6 циклічні коди
- •Основні властивості циклічного коду й способи побудови
- •Способи кодування і декодування циклічних кодів
- •Матричне подання циклічних кодів
- •Висновки
- •Тестові запитання
- •Лабораторна робота №2 Вивчення властивостей і принципів побудови циклічних кодів.
- •1 Ціль роботи
- •2 Методичні вказівки
- •3 Порядок виконання роботи
- •5 Контрольні запитання.
- •Практичне заняття №3
- •Розв’язання. Визначимо кількість інформаційних і контрольних символів у кодовій комбінації:
- •Задачі для самостійного розв’язання
- •Лекція 7 Оптимальний когерентний прийом дискретних сигналів
- •1.Основні положення теорії оптимального приймання сигналів
- •Синтез, правила розрізнення сигналів у випадку приймання повністю відомих сигналів на фоні нормального білого шуму
- •Структурні схеми оптимальних приймачів
- •Обчислення завадостійкості (імовірності помилок розрізнення сигналів) оптимальних когерентних приймачів
- •Виходячи з цього, можна записати формули для обчислення імовірностей помилок в системах когерентного приймання фазовою, частотною та амплітудною маніпуляцією.
- •Висновки
- •3 Порядок виконання роботи
- •5 Контрольні запитання
- •Лекція 8 оптимальний некогерентний прийом дискретних сигналів і його завадостійкість
- •Модель лінії зі змінними параметрами
- •Алгоритм прийняття рішення при прийманні сигналів з випадковою початковою фазою
- •Приймання сигналів з випадковою початковою фазою і флуктуючою амплітудою
- •Некогерентні приймачі сигналів з використанням обробки за огинаючою
- •Некогерентний приймач ортогональних сигналів
- •Приймання сигналів з випадковою початковою фазою при використанні відносної фозової маніпуляції
- •Висновки
- •Тестові запитання
- •3 Порядок виконання роботи.
- •4 Структура звіту
- •5 Контрольні запитання і завдання
- •Практичне заняття № 4 "Когерентне и не когерентне приймання дискретних сигналів та його завадостійкість"
- •Приклади розв’язання основних типів задач
- •Задачі для самостійного розв’язання
- •Лекція 9 оптимальний і квазиоптимальНіЙ прийом неПерервних сигналів і його завадостійкість
- •1.Особливості приймання неперервних сигналів з аналоговою модуляцією
- •2. Завадостійкість прийому сигналів з амплітудною модуляцією
- •3.Завадостійкість прийому сигналів з фазовою модуляцією
- •4.Завадостійкість прийому сигналів з частотною модуляцією
- •Висновки
- •Лекція 10 цифрові методи передачі неЗперервних повідомлень
- •Імпульсно – кодова модуляція
- •2.Завадостійкисть систем зв’язку з імпульсно-кодовою модуляцією
- •3.Диференціальна імпульсно-кодова модуляція. Дельта модуляція
- •Висновки
- •Тестові запитання
- •Практичне заняття № 5
- •Приклади розв’язання основних типів задач
- •Задачі для самостійного розв’язання
- •Лекція 11 багатоканальні системи передачі інформації
- •1.Узагальнена структура багатоканальної системи зв’язку
- •2.Системи зв’язку із частотним поділом каналів
- •3Системи зв’язку із часовим поділом каналів
- •Висновки
- •Тестові запитання
- •Лекція 12
- •1. Поняття про багатостанційний доступ
- •Системи з часовим поділом каналів
- •Системи із частотним поділом каналів
- •Системи з кодовим поділом каналів
- •Асинхронно-адресні системи передачі інформації (аас)
- •Висновки
Задачі для самостійного розв’язання
Задача 1. Джерело інформації видає символи з ансамблю з імовірностями р(хi). Знайти кількість інформації, що міститься в кожному з символів джерела при їх незалежному виборі (джерело без пам’яті). Обчислити ентропію і надмірність заданого джерела.
Вихідні |
Номер варіанта |
|||||||||
дані |
0 |
1 |
2 |
3 |
4 |
5 |
6 |
7 |
8 |
9 |
р(х1) |
0,2 |
0,15 |
0,05 |
0,1 |
0,55 |
0,45 |
0,4 |
0,5 |
0,5 |
0,45 |
р(х2) |
0,3 |
0,35 |
0,1 |
0,2 |
0,3 |
0,3 |
0,25 |
0,2 |
0,4 |
0,25 |
р(х3) |
0,4 |
0,45 |
0,15 |
0,25 |
0,1 |
0,15 |
0,2 |
0,1 |
0,05 |
0,2 |
р(х4) |
0,1 |
0,05 |
0,7 |
0,45 |
0,05 |
0,1 |
0,15 |
0,2 |
0,05 |
0,1 |
Задача 2. Закодувати оптимальним двійковим кодом за схемою Шеннона-Фано ансамбль повідомлень , які задані апріорними імовірностями р(хi). Знайти ентропію ансамблю і середнє число знаків в кодових комбінаціях. Оцінити виграш оптимального коду в порівнянні з рівномірним.
Вихідні дані |
Номер варіанта |
|||||||||
0 |
1 |
2 |
3 |
4 |
5 |
6 |
7 |
8 |
9 |
|
р(х1) |
0,25 |
0,2 |
0,15 |
0,3 |
0,4 |
0,2 |
0,12 |
0,04 |
0,05 |
0,17 |
р(х2) |
0,2 |
0,15 |
0,1 |
0,2 |
0,15 |
0,1 |
0,16 |
0,16 |
0,10 |
0,13 |
р(х3) |
0,15 |
0,1 |
0,05 |
0,1 |
0,1 |
0,2 |
0,22 |
0,03 |
0,15 |
0,08 |
р(х4) |
0,1 |
0,05 |
0,25 |
0,05 |
0,15 |
0,1 |
0,08 |
0,17 |
0,20 |
0,02 |
р(х5) |
0,05 |
0,1 |
0,15 |
0,1 |
0,05 |
0,15 |
0,1 |
0,06 |
0,20 |
0,1 |
р(х6) |
0,10 |
0,3 |
0,2 |
0,1 |
0,05 |
0,15 |
0,2 |
0,14 |
0,15 |
0,2 |
р(х7) |
0,10 |
0,05 |
0,05 |
0,1 |
0,05 |
0,05 |
0,06 |
0,15 |
0,10 |
0,15 |
р(х8) |
0,05 |
0,05 |
0,05 |
0,05 |
0,05 |
0,05 |
0,06 |
0,25 |
0,05 |
0,15 |
Задача 3. Визначити ентропію повідомлень із к букв, якщо кількість букв в алфавіті дорівнює m і всі повідомлення рівноімовірні.
Вихідні дані |
Номер варіанта |
|||||||||
0 |
1 |
2 |
3 |
4 |
5 |
6 |
7 |
8 |
9 |
|
к |
4 |
5 |
6 |
7 |
8 |
8 |
7 |
6 |
5 |
4 |
m |
16 |
32 |
64 |
128 |
256 |
256 |
128 |
64 |
32 |
16 |
Задача 4. Визначити диференціальну ентропію неперервного повідомлення, розподіленого по нормальному закону, якщо його середня потужність, виражена в нормованих одиницях, дорівнює .
Вихідні дані |
Номер варіанта |
|||||||||
0 |
1 |
2 |
3 |
4 |
5 |
6 |
7 |
8 |
9 |
|
|
10 |
20 |
30 |
40 |
50 |
60 |
70 |
80 |
90 |
100 |
Задача 5. Вимірювана величина х змінюється в межах від х0 до х0 + в і розподілена по закону рівної імовірності. Знайти диференціальну ентропію величини .
Вихідні дані |
Номер варіанта |
|||||||||
0 |
1 |
2 |
3 |
4 |
5 |
6 |
7 |
8 |
9 |
|
в |
10 |
20 |
30 |
40 |
50 |
60 |
70 |
80 |
90 |
100 |
Задача 6. Джерелом інформації є вимірювальний датчик випадкового процесу х, рівноімовірно розподіленого в межах від 0 до m нормованих одиниць. Визначити кількість інформації, яку отримують в результаті одного заміру значення цього випадкового процесу, якщо похибка вимірювання розподілена по нормальному закону і середнє квадратичне значення похибки .
Вихідні дані |
Номер варіанта |
|||||||||
0 |
1 |
2 |
3 |
4 |
5 |
6 |
7 |
8 |
9 |
|
m |
128 |
256 |
512 |
1024 |
2048 |
2048 |
1024 |
512 |
256 |
128 |
|
2 |
3 |
4 |
5 |
6 |
7 |
6 |
5 |
4 |
3 |
Висновки: У результаті вирішення чисельних прикладів 4 завдань підтверджені теоретичні положення про те, що: - з нового рядка максимальну ентропію мають джерела дискретних повідомлень з рівномірним розподілом ймовірностей повідомлень джерела;
- Інформація аддитивна, тобто її кількість в довгому повідомленні зростає зі збільшенням числа елементарних повідомлень;
- Максимальну диференціальну енергію має джерело, безперервних повідомлень, миттєві значення які розподілені за нормальним законом.