- •Воронежский институт высоких технологий
- •Содержание
- •Введение
- •1. Понятие информации и подходы к ее количественной оценке
- •1.1 Понятие и виды информации
- •Виды информации
- •1.2 Структурная мера информации
- •1.3 Статистическая мера информации
- •Выражение (1.4) можно записать также в виде
- •1.4 Семантическая мера информации
- •1.5 Преобразование информации
- •1.6 Формы представления информации
- •1.7 Передача информации
- •Передача информации по каналу без помех
- •Передача информации по каналу с помехами
- •Таким образом, скорость передачи по каналу связи с помехами
- •1.8 Общая характеристика фаз преобразования информации
- •Контрольные вопросы
- •2. Алгоритмические основы информатики
- •2.1 Свойства алгоритмов
- •2.2 Виды алгоритмов и их реализация
- •2.3 Методы представления алгоритмов
- •Структурная (блок-) схема алгоритма
- •2.4 Порядок разработки иерархической схемы реализации алгоритмов
- •2.5 Нормальный алгоритм Маркова
- •2.6 Языки программирования
- •2.7 Жизненный цикл программного обеспечения
- •Контрольные вопросы
- •3. Математические основы информатики
- •3.1 Понятие дискретного автомата
- •Логический автомат
- •Автомат с конечной памятью
- •3.2 Машина Тьюринга
- •3.3 Кодирование информации
- •Основные понятия теории кодирования
- •Методы эффективного кодирования информации
- •Кодирование по методу четности-нечетности
- •Коды Хэмминга
- •3.4 Системы счисления
- •Смешанные системы счисления
- •Перевод чисел из одной системы счисления в другую
- •Положим
- •Тогда x1будет правильной дробью и к этому числу можно применить ту же самую процедуру для определения следующего коэффициентаq-2и т.Д.
- •3.5 Представление данных в компьютере Представление целых чисел без знака и со знаком
- •Индикаторы переноса и переполнения
- •Представление символьной информации в эвм
- •Форматы данных
- •Контрольные вопросы
- •4. Прикладная информатика
- •4.1 Информационные категории
- •4.2 Автоматизация деятельности на основе алгоритмизации
- •4.3 Методы автоматизации бизнес-процессов
- •4.4 Базовые понятия и технологии управления данными
- •4.5 Базовые сведения о компьютерной графике и геометрии
- •Способ хранения изображения
- •Фундаментальные недостаткивекторной графики
- •4.6 Введение в информационную безопасность
- •Электронная цифровая подпись: алгоритмы, открытый и секретный ключи, сертификаты
- •Контрольные вопросы
- •5. Программно-аппаратные средства реализации информационных процессов
- •5.1 Операционные системы
- •Классификация ос
- •5.2 Файловые системы
- •Имена файлов
- •Типы файлов
- •Физическая организация и адрес файла
- •Права доступа к файлу
- •Кэширование диска
- •Общая модель файловой системы
- •Отображаемые в память файлы
- •Современные архитектуры файловых систем
- •5.3 Принципы организации эвм
- •Функционирование эвм с шинной организацией
- •Функционирование эвм с канальной организацией
- •5.4 Сетевые технологии обработки данных
- •Понятие локальной вычислительной сети
- •Базовая модель osi (Open System Interconnection)
- •Архитектура лвс
- •Топологии вычислительной сети
- •Сетевые устройства и средства коммуникаций
- •Виды используемых кабелей и сетевого оборудования
- •Типы построения сетей по методам передачи информации
- •5.5 Сеть internet
- •Контрольные вопросы
- •Заключение
- •Список использованных источников
- •Приложение
- •Память эвм
1.4 Семантическая мера информации
Вычислительные машины обрабатывают и преобразуют информацию разного содержания — от числовых данных до сочинения музыки и стихов. Вся эта информация изображается соответствующими символами. Оценка содержания разнохарактерной информации — весьма сложная проблема.
Среди семантических мер наиболее распространены содержательность, логическое количество, целесообразность и существенность информации.
Содержательность события выражается через функцию меры m(i) – содержательности его отрицания. Оценка содержательности основана на математической логике, в которой логические функции истинности m(i) и ложности m(i ) имеют формальное сходство с функциями вероятностей события p(i) и антисобытия q(i) в теории вероятностей.
Как и вероятность, содержательность события изменяется в пределах 0m(i)1.
Логическое количество информации Inf , сходное со статистическим количеством информации, вычисляется по выражению:
Inf = log2 [1/m(i)] = –log2 m(i ) .
Отличие статистической оценки от логической состоит в том, что в первом случае учитываются вероятности реализации тех или иных событий, что приближает к оценке смысла информации.
Если информация используется в системах управления, то ее полезность целесообразно оценивать по тому эффекту, который она оказывает на результат управления.
Мера целесообразности информации определяется как изменение вероятности достижения цели при получении дополнительной информации. Полученная информация может быть пустой, т. е. не изменять вероятности достижения цели, и в этом случае ее мера равна нулю. В других случаях полученная информация может изменять положение дела в худшую сторону, т.е. уменьшить вероятность достижения цели, и тогда она будет дезинформацией, измеряющейся отрицательным значением количества информации. Наконец, в благоприятном случае получается добротная информация, которая увеличивает вероятность достижения цели и измеряется положительной величиной количества информации.
Мера целесообразности в общем виде может быть аналитически выражена в виде соотношения
Iцел = log2 p1 – log2 p0 = log2 , (1.8)
где p0иp1– начальная (до получения информации) и конечная (после получения информации) вероятности достижения цели.
Следует различать существенность самого события; существенность времени совершения события или его наблюдения (рано—поздно—момент); существенность координаты совершения события.
Измерение некоторого параметра X можно характеризовать несколькими функциями величины х: вероятностью р(х), погрешностью измерения (х) и существенностью с(х). Каждой из этих функций можно поставить в соответствие определенную меру информации. Мерой Хартли оценивается функция погрешности при фиксированных значениях функции вероятности (р = const) и существенности (с = const). Мерой Шеннона оценивается функция вероятности (р = var) при фиксированных значениях функций погрешности ( = const) и существенности (с = const) . Мера существенности относится к ситуации с фиксированными функциями погрешности ( = const) и вероятности (р = const) . Можно ввести функции существенности: сх, зависящие от х; сT, cN, зависящие от времени Т и пространства (канала) N.