- •Завдання №1
- •Завдання №5
- •Згідно до технічного завдання маємо десять незалежних повідомлень, очевидно спектр кожного повідомлення перенесеться на свою власну піднесучу
- •4.1 Решение задачи №1
- •4.2 Решение задачи №2
- •4.3 Решение задачи №3
- •Решение задачи №4
- •4.5 Решение задачи №5
- •Розв’язок задачі №1
- •Відповідь: втрати інформації становлять 1.076 біт/символ.
- •4 Циклічні коди
- •3.5. Розв’язок задачі №5
- •За умовою задачі
- •1 Міра кількості інформації
- •2 Інтервал кореляції
- •3 Оптимальні коди
- •4 Циклічні коди
- •5 Багатоканальні системи передачи інформації
- •1 Технічне завдання
- •3.1 Розв’язання задачі №1
- •3.2 Розв’язання задачі №2
- •3.3 Розв’язання задачі №3
- •3.4 Розв’язання задачі №4
- •3.5 Розв’язання задачі №5
- •3.1. Розв’язок задачі №1
- •Відповідь: втрати інформації становлять 1.076 біт/символ.
- •3.2. Розв’язок задачі №2
- •3.3. Розв’язок задачі №3
- •3.4. Розв’язок задачі №4
- •Прийнята кодова комбінація циклічного коду має вигляд
- •3.5. Розв’язок задачі №5
- •За умовою задачі
- •2.1 Розв′язання задачі №1
- •2.2 Розв′язання задачі №2
- •2.3 Розв′язання задачі №3
- •2.4 Розв′язання задачі №4
- •2.5 Розв′язання задачі №5
- •Згідно до технічного завдання, маємо десять незалежних повідомлень, очевидно спектр кожного повідомлення перенесеться на свою власну піднесучу (рис.2.5.3) :
- •1.1 Розв’язок задачі №1
- •1.2 Розв’язок задачі №2
- •1 .3 Розв’язок задачі №3
- •1.4 Розв’язок задачі №4
- •1.5 Розв’язок задачі №5
- •4 Циклічні коди
- •1 Определение энтропии источника
- •2 Определение ширины спектра
- •3 Построение кода Хаффмана
- •4 Ошибки при передаче
- •5 Определение полосы частот
- •Завдання 2
- •Завдання 3
- •Задача №1
- •Задача № 2
- •Задача № 3
- •Задача № 4
- •Задача № 5
4.1 Решение задачи №1
В данной задачи необходимо найти энтропию источника. Поэтому дадим определение энтропии. Энтропия – количество информации, приходящиеся на один элемент сообщения. Энтропия определяется формулой:
4.1.1
Найдём энтропию, подставив данные в таблице 3.1 в формулу 4.1.1:
бита.
Найдём условную энтропию ( потери информации) источника.
Воспользуемся теоремой умножение вероятностей:
4.1.2
Найдём вероятности p(bi) по следующей формуле:
4.1.3
p(b1)=0.25 , p(b2)=0.25, p(b3)=0.25, p(b4)=0.25.
Найдём энтропию источника В по формуле 4.1.1:
бита.
4.2 Решение задачи №2
Найдём энтропийную мощность, которая определяется как мощность нормального шума, равномерно распределенного в полосе частот (белого шума), который, имея ту же длительность и ширину спектра, что и реальная помеха, обладает той же энтропией, то есть, если H(x) – энтропия помехи, то её энтропийная мощность Pэнт определяется так:
4.2.1
Найдём энтропию H(x). Для этого воспользуемся формулой для нахождения энтропии распределения Коши.
4.2.2
Зная энтропию H(x), подставим её в формулу 4.2.1.
4.3 Решение задачи №3
Если источник вырабатывает сообщения, состоящие из фиксированного набора символов х с вероятностями р(хi), то при оптимальном кодировании они заменяются символами кода z или комбинациями символов кода так, чтобы количество информации на один символ кода было максимальным. Для случая, когда отсутствует статистическая связь между символами сообщения Шеннона и Фано разработана методика построения кода, близкого к оптимальному и дающего оптимальный результат в том случае, когда вероятности р(хi) выражаются отрицательными степенями двойки. В оптимальном коде, называемым Шеннона-Фано, используется символы 0 или 1, то есть оптимальный код является двоичным. Построим этот код. Для этого воспользуемся следующим алгоритмом.
Символы исходного сообщения (буквы) располагаются в порядке убывания их вероятностей и разбиваются на две группы так, чтобы суммы вероятностей в группах были примерно одинаковы.
В качестве первого символа кода всем буквам, вошедшим в первую группу, приписывается единица, а буквам второй группы – нуль.
Каждая из полученных подгрупп вновь разбивается на две подгруппы примерно с одинаковыми вероятностями.
Буквам первых подгрупп в качестве следующего символа кода приписывается единица, а к буквам второй группы – нуль и так далее.
Разбиение на подгруппы производиться до тех пор, пока в каждой подгруппе не останется по одной букве.
Интерпретация решения приведена в таблице 4.3.1.
Таблица 4.3.1
Буквы |
Вероятности |
Подгруппы |
Кодированные комбинации |
x1 |
0.125 |
0
0
1
0
0 |
111 |
x2 |
0.125 |
110 |
|
x3 |
0.125 |
101 |
|
x4 |
0.125 |
100 |
|
x5 |
0.125 |
011 |
|
x6 |
0.125 |
010 |
|
x7 |
0.125 |
001 |
|
x8 |
0.125 |
000 |
Оцени эффективность метода Шеннона-Фано, определив энтропию полученного кода. Для этого определим вероятность появления символа кода:
4.3.1
p(1)=0.5,
p(0)=0.5.
Тогда энтропия H= – 0.5log20.5– 0.5log20.5=1 бит.
Полученный результат свидетельствует о том, что вероятности появления символа кода одинаковы и энтропия кода максимальна.
Определим избыточность кода Dотн.