Добавил:
Upload Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:
КЛ_Информатика.doc
Скачиваний:
13
Добавлен:
09.11.2019
Размер:
447.49 Кб
Скачать

Лекция 2

2. Информация, ее виды и свойства

2.1. Понятие информации и ее измерение

2.2. Количество и качество информации

2.3. Единицы измерения информации

2.4. Информация и энтропия

2.5. Свойства информации

2.6. Сообщения и сигналы

2.7. Кодирование и квантование сигналов

2.1. Понятие информации и ее измерение

Информацияэто мера устранения неопределенности в отношении исхода интересующего нас события.

Данныеэто материальные объекты произвольной формы, выступающие в качестве средства представления информации.

Сообщение как совокупность знаков с точки зрения семиотики может изучаться на трех уровнях:

- синтаксическом (структура данной знаковой системы);

- семантическом (смысловое содержание сообщения);

- прагматическом (потребительское содержание сообщения).

На синтаксическом уровне для измерения информации используют объем информации (Vg); количество информации (I).

На семантическом уровне для измерения информации используют тезаурусную меру – способность пользователя принимать поступившее сообщение.

На прагматическом уровне используют меру ценности информации – количество информации, необходимое для достижения поставленной цели. Так, если до получения информации вероятность достижения цели равнялась p0, а после ее получения стала равна p1, то ценность информации определяется по формуле:

.

Единицы измерения – биты, наты, диты.

2.2. Количество и качество информации

Количество информации мера уменьшения неопределенности состояния данной системы после получения сообщения.

Качество информации – совокупность свойств информации, характеризующих степень ее соответствия потребностям (целям) пользователей.

2.3. Единицы измерения информации

Объем информации измеряется в битах (двоичная система) и дитах (десятичная система). Так четырехразрядное десятичное число имеет объем данных 4 дит, а восьмиразрядный двоичный код – 8 бит.

Более крупные единицы информации

- 1 байт = 8 бит,

- 1 Килобайт = 1024 байт = 210 байт,

- 1 Мегабайт = 1024 Кбайт = 220 байт,

- 1 Гигабайт = 1024 Мбайт = 230 байт,

- 1 Терабайт = 1024 Гбайт = 240 байт,

- 1 Петабайт =1024 Тбайт = 250 байт.

2.4. Информация и энтропия

Для измерения количества информации в качестве меры неопределенности вводится энтропия (H):

I = Hapr - Haps,

где Hapr – априорная энтропия, а Haps – апостериорная энтропия.

Если система A описывается полной совокупностью (N) состояний ai и равными вероятностями их появлений pi, составляющими в сумме единицу:

.

Энтропия такого объекта равна логарифму числа состояний (Р.Хартли). В зависимости от основания логарифма применяют следующие единицы измерения:

- биты - ;

- наты - ;

- диты - .

Если вероятности наступления событий разные, то энтропия такой системы вычисляется по формуле К.Шеннона:

.

2.5. Свойства информации

Информацию можно классифицировать по различным признакам:

Классификационный признак

Виды

Сфера возникновения

Элементарная

Биологическая

Социальная

Способ передачи и восприятия

Визуальная

Аудиальная

Тактильная

Сфера общественного назначения

Массовая

Специальная

Личная

И другие

Информация характеризуется тремя категориями свойств: атрибутивными, прагматическими и динамическими.

Атрибутивные свойства - необходимые свойства, те, без которых информация не может существовать.

Прагматические свойства характеризуют степень полезности информации для практики.

Динамические свойства характеризуют изменение информации во времени.

Динамические свойства информации в значительной мере влияют на характеристики информационных процессов.

Свойства информации: адекватность, репрезентативность, содержательность, достаточность, доступность, актуальность, своевременность, точность, достоверность, устойчивость.

Соседние файлы в предмете [НЕСОРТИРОВАННОЕ]