- •Воронежский институт высоких технологий
- •Содержание
- •Введение
- •1. Понятие информации и подходы к ее количественной оценке
- •1.1 Понятие и виды информации
- •Виды информации
- •1.2 Структурная мера информации
- •1.3 Статистическая мера информации
- •Выражение (1.4) можно записать также в виде
- •1.4 Семантическая мера информации
- •1.5 Преобразование информации
- •1.6 Формы представления информации
- •1.7 Передача информации
- •Передача информации по каналу без помех
- •Передача информации по каналу с помехами
- •Таким образом, скорость передачи по каналу связи с помехами
- •1.8 Общая характеристика фаз преобразования информации
- •Контрольные вопросы
- •2. Алгоритмические основы информатики
- •2.1 Свойства алгоритмов
- •2.2 Виды алгоритмов и их реализация
- •2.3 Методы представления алгоритмов
- •Структурная (блок-) схема алгоритма
- •2.4 Порядок разработки иерархической схемы реализации алгоритмов
- •2.5 Нормальный алгоритм Маркова
- •2.6 Языки программирования
- •2.7 Жизненный цикл программного обеспечения
- •Контрольные вопросы
- •3. Математические основы информатики
- •3.1 Понятие дискретного автомата
- •Логический автомат
- •Автомат с конечной памятью
- •3.2 Машина Тьюринга
- •3.3 Кодирование информации
- •Основные понятия теории кодирования
- •Методы эффективного кодирования информации
- •Кодирование по методу четности-нечетности
- •Коды Хэмминга
- •3.4 Системы счисления
- •Смешанные системы счисления
- •Перевод чисел из одной системы счисления в другую
- •Положим
- •Тогда x1будет правильной дробью и к этому числу можно применить ту же самую процедуру для определения следующего коэффициентаq-2и т.Д.
- •3.5 Представление данных в компьютере Представление целых чисел без знака и со знаком
- •Индикаторы переноса и переполнения
- •Представление символьной информации в эвм
- •Форматы данных
- •Контрольные вопросы
- •4. Прикладная информатика
- •4.1 Информационные категории
- •4.2 Автоматизация деятельности на основе алгоритмизации
- •4.3 Методы автоматизации бизнес-процессов
- •4.4 Базовые понятия и технологии управления данными
- •4.5 Базовые сведения о компьютерной графике и геометрии
- •Способ хранения изображения
- •Фундаментальные недостаткивекторной графики
- •4.6 Введение в информационную безопасность
- •Электронная цифровая подпись: алгоритмы, открытый и секретный ключи, сертификаты
- •Контрольные вопросы
- •5. Программно-аппаратные средства реализации информационных процессов
- •5.1 Операционные системы
- •Классификация ос
- •5.2 Файловые системы
- •Имена файлов
- •Типы файлов
- •Физическая организация и адрес файла
- •Права доступа к файлу
- •Кэширование диска
- •Общая модель файловой системы
- •Отображаемые в память файлы
- •Современные архитектуры файловых систем
- •5.3 Принципы организации эвм
- •Функционирование эвм с шинной организацией
- •Функционирование эвм с канальной организацией
- •5.4 Сетевые технологии обработки данных
- •Понятие локальной вычислительной сети
- •Базовая модель osi (Open System Interconnection)
- •Архитектура лвс
- •Топологии вычислительной сети
- •Сетевые устройства и средства коммуникаций
- •Виды используемых кабелей и сетевого оборудования
- •Типы построения сетей по методам передачи информации
- •5.5 Сеть internet
- •Контрольные вопросы
- •Заключение
- •Список использованных источников
- •Приложение
- •Память эвм
1.3 Статистическая мера информации
В статистической теории информации вводится более общая мера количества информации, в соответствии с которой рассматривается не само событие, а информация о нем. Этот вопрос глубоко проработан К. Шенноном в работе «Избранные труды по теории информации». Если появляется сообщение о часто встречающемся событии, вероятность появления которого близка к единице, то такое сообщение для получателя малоинформативно. Столь же малоинформативны сообщения о событиях, вероятность появления которых близка к нулю.
События можно рассматривать как возможные исходы некоторого опыта, причем все исходы этого опыта составляют ансамбль, или полную группу событий. К. Шеннон ввел понятие неопределенности ситуации, возникающей в процессе опыта, назвав ее энтропией. Энтропия ансамбля есть количественная мера его неопределенности и, следовательно, информативности, количественно выражаемая как средняя функция множества вероятностей каждого из возможных исходов опыта.
Пусть имеется N возможных исходов опыта, из них k разных типов, а i-й исход повторяется ni раз и вносит информацию, количество которой оценивается как Ii,. Тогда средняя информация, доставляемая одним опытом,
Icp = (n1I1 + n2I2 + … + nkIk)/N (1.3)
Но количество информации в каждом исходе связано с его вероятностью pi и выражается в двоичных единицах (битах) как Ii=log2 (1/pi)= = –log2 pi. Тогда
Icp = [n1(–log2 p1) + … +nk(–log2 pk)]/N (1.4)
Выражение (1.4) можно записать также в виде
Icp = (–log2 p1) + (–log2 p2)+ … + (–log2 p1) (1.5)
Отношения n/N представляют собой частоты повторения исходов, а следовательно, могут быть заменены их вероятностями ni/N=pi, поэтому их средняя информация в битах
Icp = p1(–log2 p1) + … +pk(–log2 pk)],
или
Icp= –log2 pi = H . (1.6)
Полученную величину называют энтропией и обозначают обычно буквой Н. Энтропия обладает следующими свойствами:
1. Энтропия всегда неотрицательна, так как значения вероятностей выражаются величинами, не превосходящими единицу, а их логарифмы – отрицательными числами или нулем, так что члены суммы (1.6) – неотрицательны.
2. Энтропия равна нулю в том крайнем случае, когда одно из pi равно единице, а все остальные — нулю. Это тот случай, когда об опыте или величине все известно заранее и результат не дает новую информацию.
3. Энтропия имеет наибольшее значение, когда все вероятности равны между собой: p1 = p2 = ... = pk - 1/k . При этом
H = – log2 (1/k) = log2 k .
4. Энтропия объекта АВ, состояния которого образуются совместной реализацией состояний А и В, равна сумме энтропии исходных объектов А и В, т. е. Н(АВ) = Н(А) + Н(В).
Если все события равновероятны и статистически независимы, то оценки количества информации, по Хартли и Шеннону, совпадают. Это свидетельствует о полном использовании информационной емкости системы. В случае неравных вероятностей количество информации, по Шеннону, меньше информационной емкости системы. Максимальное значение энтропии достигается при р = 0,5 , когда два состояния равновероятны. При вероятностях р = 0 или р = 1, что соответствует полной невозможности или полной достоверности события, энтропия равна нулю.
Количество информации только тогда равно энтропии, когда неопределенность ситуации снимается полностью. В общем случае нужно считать, что количество информации есть уменьшение энтропии вследствие опыта или какого-либо другого акта познания. Если неопределенность снимается полностью, то информация равна энтропии: I = Н.
В случае неполного разрешения имеет место частичная информация, являющаяся разностью между начальной и конечной энтропией: I = H1–H2.
Наибольшее количество информации получается тогда, когда полностью снимается неопределенность, причем эта неопределенность была наибольшей – вероятности всех событий были одинаковы. Это соответствует максимально возможному количеству информации I1, оцениваемому мерой Хартли:
I1 = log2 N = log2(1/p) = –log2 p ,
где N — число событий;р — вероятность их реализации в условиях равной вероятности событий.
Таким образом, I1 = Hmax .
Абсолютная избыточность информации Dабс представляет собой разность между максимально возможным количеством информации и энтропией: Dабс = I1 – H , или Dабс = Hmax – H .
Пользуются также понятием относительной избыточности
D= (Hmax–H)/Hmax(1.7)