- •«Калининградский государственный технический университет»
- •230100.62 «Информатика и вычислительная техника» и
- •230700.62 «Прикладная информатика»
- •Оглавление
- •Введение
- •1. Основные понятия информатики и информации
- •1.1. Информатизация общества
- •1.2. Понятие информатики
- •1.3. Понятие и характерные черты информации
- •1.4. Классификация информации
- •1.5. Свойства информации
- •2. Кодирование информации
- •2.1. Виды сигнала как материального носителя информации
- •2.2. Преобразования сигнала
- •2.3. Системы счисления
- •2.4. Правила перевода чисел
- •2.4.1. Правила перевода целых чисел
- •2.4.2. Правила перевода правильных дробей
- •2.4.3. Правило перевода неправильных дробей
- •2.5. Правила выполнения простейших арифметических действий
- •2.6. Кодирование дискретного сигнала
- •2.7. Кодирование по образцу
- •2.7.1. Прямые коды
- •2.7.2.Ascii-коды
- •2.7.3. Коды, учитывающие частоту информационных элементов
- •2.7.4. Коды Грея
- •2.8. Криптографическое кодирование
- •2.8.1. Метод простой подстановки
- •2.8.2. Метод Виженера
- •2.9. Эффективное кодирование
- •2.9.1. Универсальные методы
- •2.9.1.1. Метод Шеннона-Фано
- •2.9.1.2. Метод Хаффмена
- •2.9.1.3. Повышение эффективности кодирования универсальными кодами
- •2.9.1.4. Декодирование эффективных кодов
- •2.9.2. Специальные методы эффективного кодирования
- •2.9.2.1. Методы эффективного кодирования числовых последовательностей
- •2.9.2.2. Методы эффективного кодирования словарей
- •Основной вспомогательный
- •2.9.2.3. Методы эффективного кодирования естественно-языковых текстов
- •2.10. Помехозащитное кодирование
- •2.10.1. Искажение кодовых комбинаций
- •2.10.2. Кодовое расстояние и корректирующая способность кода
- •2.10.3. Коды, исправляющие ошибки
- •3. Измерение дискретного сигнала
- •3.1. Структурный подход к измерению информации
- •3.1.1. Геометрическая мера
- •3.1.2. Комбинаторная мера
- •3.1.3. Аддитивная мера
- •3.2. Статистический подход к измерению информации
- •3.3. Семантический подход к измерению информации
- •3.3.1. Целесообразность информации
- •3.3.2. Полезность информации
- •3.3.3. Истинность информации
- •3.4. Качество информации
- •Технические средства информатики
- •4.1. Структура компьютера и принципы его функционирования
- •4.2. Виды современных компьютеров
- •4.3. Структурные элементы компьютера
- •4.3.1. Память
- •4.3.1.1. Внутренняя память
- •4.3.1.2. Внешняя память
- •4.3.2. Устройство управления
- •4.3.3. Арифметико-логическое устройство
- •4.3.3.1. Формы представления целых чисел
- •4.3.3.2. Формы представления вещественных чисел
- •4.3.3.3. Коды представления числовых данных
- •4.3.3.4. Принципы выполнения арифметической операции сложения
- •Приложение 1. Положения комбинаторики, используемые в измерении информации
2.9.1.2. Метод Хаффмена
Этот метод имеет два преимущества по сравнению с методом Шеннона-Фано: он устраняет неоднозначность кодирования, возникающую из-за примерного равенства сумм частот при разделении списка на две части (линия деления проводится неоднозначно), и имеет, в общем случае, большую эффективность кода.
Для построения кодовой таблицы исходное множество символов упорядочивается по невозрастанию частоты и выполняются следующие шаги:
1) объединение частот:
две последние частоты складываются, а соответствующие символы исключаются из списка;
оставшийся после исключения символов список пополняется суммой частот и вновь упорядочивается;
предыдущие шаги повторяются до тех пор, пока ни получится единица в результате суммирования и список ни уменьшится до одного символа;
Таблица 2.4
Исход- ные сим- волы |
Час- тоты символов |
Этапы построения кода |
Формируемый код | |||||
первое деление |
второе деление |
третье деление |
первое деление |
второе деление |
третье деление | |||
линия деления |
0,5 |
1= 0,5 |
код для символа aсформирован |
1 |
- |
- | ||
линия деления |
0,25 |
|
1= 0,25 |
код для символа bсформирован |
0 |
1 |
- | |
линия деления |
0,125 |
2=0,25+0,125+ |
2 = 0,125+0,125 = 0,25 |
1= 0,125
2 = 0,125 |
0 |
0 |
1 | |
d |
0,125 |
0,125=0,5 |
0 |
0 |
0 |
2) построение кодового дерева:
строится двоичное кодовое дерево: корнем его является вершина, полученная в результате объединения частот, равная 1; листьями – исходные вершины; остальные вершины соответствуют либо суммарным, либо исходным частотам, причем для каждой вершины левая подчиненная вершина соответствует большему слагаемому, а правая – меньшему; ребра дерева связывают вершины-суммы с вершинами-слагаемыми. Структура дерева показывает, как происходило объединение частот;
ребра дерева кодируются: каждое левое кодируется единицей, каждое правое – нулем;
3) формирование кода: для получения кодов листьев (исходных кодируемых символов) продвигаются от корня к нужной вершине и «собирают» веса проходимых ребер.
Пример 2.23. Даны символыa, b, c, d с частотамиfa=0,5; fb=0,25; fc=0,125; fd=0,125. Построить эффективный код методом Хаффмена.
1) объединение частот:
Таблица 2.5
Исходные символы s |
Частоты fs |
Этапы объединения | ||
первый |
второй |
третий | ||
a |
0,5 |
0,5 |
0,5 |
1 |
b |
0,25 |
0,25 |
0,5 |
|
c |
0,125 |
0,25 |
|
|
d |
0,125 |
|
|
|
2) построение кодового дерева:
1
0
0,5 a 0,5
0
0,25 b 0,25
0
0,125 c 0,125 d
3) формирование кода:
a - 1;
b - 01;
c - 001;
d - 000.
Как видно, полученные коды совпадают с теми, что были сформированы методом Шеннона-Фано, следовательно, они имеют одинаковую эффективность.
Закодируем дискретное сообщение abbaпостроенным кодом: 101011.