- •Предисловие
- •Лекция 1. Информация. Начальные понятия и определения
- •1. Информация и данные
- •2. Адекватность и формы адекватности информации
- •3. Качество информации
- •4. Понятие об информационном процессе
- •5. Формы представления информации
- •6. Преобразование сообщений
- •Лекция 2. Необходимые сведения из теории вероятностей
- •1. Понятие вероятности
- •2. Сложение вероятностей независимых несовместных событий
- •3. Умножение вероятностей независимых совместных событий
- •4. Нахождение среднего для значений случайных независимых величин
- •5. Понятие условной вероятности
- •6. Общая формула для вероятности произведения событий
- •7. Общая формула для вероятности суммы событий
- •Лекция 3. Понятие энтропии
- •1. Энтропия как мера неопределенности
- •2. Свойства энтропии
- •3. Условная энтропия
- •Лекция 4. Энтропия и информация
- •1. Объемный подход к измерению количества информации
- •2. Энтропийный подход к измерению количества информации
- •Лекция 5. Информация и алфавит
- •Лекция 6. Постановка задачи кодирования. Первая теорема Шеннона.
- •Лекция 7. Способы построения двоичных кодов. Алфавитное неравномерное двоичное кодирование сигналами равной длительности. Префиксные коды.
- •1. Постановка задачи оптимизации неравномерного кодирования
- •00100010000111010101110000110
- •2. Неравномерный код с разделителем
- •3. Коды без разделителя. Условие Фано
- •00100010000111010101110000110
- •00100010000111010101110000110
- •4. Префиксный код Шеннона–Фано
- •5. Префиксный код Хаффмана
- •Лекция 8. Способы построения двоичных кодов. Другие варианты
- •1. Равномерное алфавитное двоичное кодирование. Байтовый код
- •2. Международные системы байтового кодирования текстовых данных. Универсальная система кодирования текстовых данных
- •3. Алфавитное кодирование с неравной длительностью элементарных сигналов. Код Морзе
- •4. Блочное двоичное кодирование
- •101010111001100010000000001000000000000001
- •5. Кодирование графических данных
- •6. Кодирование звуковой информации
- •Лекция 9. Системы счисления. Представление чисел в различных системах счисления. Часть 1
- •1. Системы счисления
- •2. Десятичная система счисления
- •3. Двоичная система счисления
- •4. 8- И 16-ричная системы счисления
- •5. Смешанные системы счисления
- •6. Понятие экономичности системы счисления
- •Лекция 10. Системы счисления. Представление чисел в различных системах счисления. Часть 2.
- •1. Задача перевода числа из одной системы счисления в другую
- •2. Перевод q p целых чисел
- •3. Перевод p q целых чисел
- •4. Перевод p q дробных чисел
- •6. Перевод чисел между 2-ичной, 8-ричной и 16-ричной системами счисления
- •Лекция 11. Кодирование чисел в компьютере и действия над ними
- •1. Нормализованные числа
- •2. Преобразование числа из естественной формы в нормализованную
- •3. Преобразование нормализованных чисел
- •4. Кодирование и обработка целых чисел без знака
- •5. Кодирование и обработка целых чисел со знаком
- •6. Кодирование и обработка вещественных чисел
- •Лекция 12. Передача информации в линии связи
- •1. Общая схема передачи информации в линии связи
- •2. Характеристики канала связи
- •3. Влияние шумов на пропускную способность канала
- •Лекция 13. Обеспечение надежности передачи информации.
- •1. Постановка задачи обеспечения надежности передачи
- •2. Коды, обнаруживающие одиночную ошибку
- •3. Коды, исправляющие одиночную ошибку
- •Лекция 14. Способы передачи информации в компьютерных линиях связи
- •1. Параллельная передача данных
- •2. Последовательная передача данных
- •3. Связь компьютеров по телефонным линиям
- •Лекция 15. Классификация данных. Представление данных в памяти компьютера
- •1. Классификация данных
- •2. Представление элементарных данных в озу
- •Лекция 16. Классификация структур данных
- •1. Классификация и примеры структур данных
- •2. Понятие логической записи
- •Лекция 17. Организация структур данных в оперативной памяти и на внешних носителях
- •1. Организация структур данных в озу
- •2. Иерархия структур данных на внешних носителях
- •3. Особенности устройств хранения информации
- •Контрольные вопросы
- •Список литературы
5. Формы представления информации
Передача информации производится с помощью сигналов, а самим сигналом является изменение некоторой характеристики носителя с течением времени. При этом в зависимости от особенностей изменения этой характеристики (то есть параметра сигнала) с течением времени выделяют два типа сигналов:
Непрерывные сигналы;
Дискретные сигналы;
Сигнал называется непрерывным (или аналоговым), если его параметр может принимать любое значение в пределах некоторого интервала.
Если – значение параметра сигнала, а– время, то зависимостьбудет непрерывной функцией, а производнаяконечна во всех точкахвнутри области определения функции.
Примерами непрерывных сигналов являются речь, изменение показаний термометра (параметр сигнала – высота столба ртути – имеет непрерывный ряд значений) и так далее
Сигнал называется дискретным, если его параметр может принимать конечное число значений в пределах некоторого интервала.
Дискретные сигналы могут быть описаны дискретным и конечным множеством значений параметров . Производнаябесконечна по модулю в точках, в которых происходит смена значения параметра сигнала, и равна нулю во всех других точках.
Примерами устройств, использующих дискретные сигналы, являются книги, электронные часы, цифровые измерительные приборы, табло, бытовая электроника, компьютерная техника и так далее
Поскольку последовательность сигналов есть сообщение, качество прерывности–непрерывности сигналов переносится и на сообщение – существуют понятия «непрерывное сообщение» (построенное из непрерывных сигналов) и «дискретноесообщение» (построенное из дискретных сигналов).
Однако, строго говоря, нет оснований приписывать качество непрерывности или дискретности самой информации, так как информация – категория нематериальная и не может обладать свойством непрерывности или дискретности. Тем не менее, в информатике существуют и используются сочетания «непрерывная информация» и «дискретная информация». Эти понятия нужно понимать только как сокращение полных фраз: «информация, представленная посредством непрерывных сигналов» и «информация, представленная посредством дискретных сигналов».
Принципиальным и важнейшим различием непрерывных и дискретных сигналов является то, что дискретные сигналы можно обозначить, то есть приписать каждому значению из конечного множества возможных значений параметра сигнала знак, который будет отличать данный сигнал от другого.
Знак – это элемент некоторого конечного множества отличных друг от друга сущностей.
Теоретически можно было бы обойтись без требования конечности, однако, это не имело бы никакого практического применения, поскольку за конечное время всегда можно передать только сообщения, построенные из конечного числа знаков.
Природа знака может быть любой – жест, рисунок, буква, сигнал светофора, определенный звук и так далее Природа знака определяется носителем сообщения и формой представления информации в сообщении.
Вся совокупность знаков, используемых для представления дискретной информации, называется набором знаков.Набор есть дискретное множество знаков.
Набор знаков, в котором установлен порядок их следования, называется алфавитом.Алфавит – это упорядоченная совокупность знаков. Порядок следования знаков в алфавите называетсялексикографическим. Благодаря этому порядку между знаками устанавливаются отношения «больше–меньше»: для двух знаковипринимается, что, если порядковый номер знакав алфавите меньше, чем порядковый номер знака.
Примером алфавита может служить совокупность арабских цифр 0,1…9 – с помощью этого алфавита можно записать любое число в системах счисления от двоичной до десятичной. Если к этому алфавиту добавить знаки «+» и «–», то сформируется набор знаков, применимый для записи любого целого числа, как положительного, так и отрицательного. Однако, этот набор нельзя будет считать алфавитом, если в нем не заданы порядковые номера следования знаков «+» и «–». Наконец, если добавить знак разделителя разрядов («.» или «,»), то такой набор знаков позволит записать любое вещественное число.
При передаче сообщения параметр сигнала должен меняться, поэтому минимальное количество различных его значений равно двум. Следовательно, алфавит содержит минимум два знака (такой алфавит называется двоичным).
Верхней границы числа знаков в алфавите не существует; примером могут служить иероглифы, каждый из которых обозначает целое понятие, и общее их количество исчисляется десятками тысяч.
Знаки, используемые для обозначения фонем человеческого языка, называются буквами, а их совокупность –алфавитом языка.
Сами по себе знак или буква не несут никакого смыслового содержания. Однако такое содержание им может быть приписано – в этом случае знак будет называться символом. Например, массу в физике принято обозначать буквой – следовательно, является символом физической величины «масса» в формулах. Иероглифы – тоже символы, поскольку наделены смыслом. Символами являются ипиктограммыв комьютерных интерфейсах, обозначающие в компьютерных программах объекты или действия.
Таким образом, понятия «знак», «буква» и «символ» не тождественны.