Добавил:
Upload Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:
УМК_ЛекцииТИПИС_ 2.doc
Скачиваний:
23
Добавлен:
24.09.2019
Размер:
1.43 Mб
Скачать
  1. Информация и информационные системы.

    1. Определение информации

Существующие определения информации.

Сведения, о лицах, предметах, фактах, не зависящие от формы их представления. Информация уменьшает степень неопределенности знаний о рассматриваемых объектах.

(сайт glossary.ru)

С точки зрения системного подхода информация, рассматривается как общесистемное свойство материи. Как свойство(способность) объекта отражать свои свойства на свойствах другого объекта.

Аспекты рассмотрения информации

В зависимости от области рассмотрения у информации выделяются аспекты

1. Прагматический (какая польза будет от нее). Информация рассматривается с точки зрения полезности, для достижения какой либо цели. В данном случае информация рассматривается как средство увеличения вероятности достижения поставленной цели. То есть, при получении информации вероятность достижения цели должна увеличивается, (она больше, чем до получения информации). В данном аспекте информация имеет целевой характер. Информация, существенная, для достижения некоторой цели, может быть не существенна для достижения другой цели.

2. Семантический аспект. Информация рассматривается с точки зрения ее смыслового содержания, то есть по составу объектов, которые она описывает, составу атрибутов объектов и связей объектов. При данном аспекте также необходимо учитывать целевой аспект, то есть влияние информации на ее потребителя. Прежде всего, повышение при получения информации общего объема информации в потребителе.

3. Синтаксический. Отображает форму представления информации. То есть, каким образом, на каком алфавите будет отображена, представлена информация. Правила формирования информационных блоков из информационных элементов.

4. Кибернетический. Информация рассматривается с точки зрения специальной теории – теории информации. При этом единичный объект информации представляется как сообщение о сделанном выборе из некоторого множества возможных альтернатив (вариантов). Очевидно, что сообщение несет большую информацию, если, исходных вариантов выбора много. Если исходных вариантов выбора нет, то есть он единственный, то величина информации о сделанном выборе равна 0.

Мера информации или количество информации.

Для различных аспектов информации используются различные понятия о количестве информации.

При прагматическом подходе под количеством информации можно рассматривать величину

IN=PI-P0

P0- вероятность достижения цели без полученной информации,

PI - вероятность достижения цели при получении информации,

При семантическом аспекте количество информации может быть измерено количеством описываемых объектов, связей, атрибутов. Однако при этом требуется учитывать текущий уровень информации об этих объектах у потребителей.

Для его учета в определении количества информации при прагматическом и семантическом подходе существует тезаурусная оценка.

Понятие тезауруса

Для восприятия некоторой информации потребитель сам должен обладать некоторым уровнем информации, называемым тезаурусом. С помощью данной исходной информации потребитель воспринимает переданную информацию. Если начальный тезаурус меньше уровня, необходимого для восприятия информации, то количество переданной информации равно нулю, если исходный тезаурус таков, что в него уже входит переданная информация, то количество переданной информации также равно нулю.

Количество полученной информации

IПЕР - Количество передаваемой информации

ITmin - минимально необходимый уровень тезауруса

Количество информации при кибернетическом подходе.

При кибернетическом подходе предполагается, что существует некоторое исходное количество альтернатив выбора.

A={a1,a2,.. ai,… an}

Процесс получения информации рассматривается как передача сообщение о выборе из некоторого исходного множества вариантов (о событии соответствующем выбору).

Информация, которая передается одним сообщением является функцией от вероятности данного сообщения, то есть, очевидно чем вероятнее выбор, тем меньше информации несет сообщения о нем (и без сообщения ясно )

I(ai)=φ(P(ai))

На основании этой связи с вероятностью формулируются следующие свойства информации

  1. Количество информации передаваемое сообщением об очевидном событии ( событии с вероятностью 1) равна 0.

φ(1) = 0;

  1. Для информации выполняется закон аддитивности, то есть сложения. Количество информация, передаваемое сообщением о двух событиях равна сумме информаций переданной сообщениями о каждом сообщении по отдельности.

I(ai , aj)= I(ai )+ I(aj);

На основе данного свойства производится вывод формулы количества информации.

И так, исходная формула -- I(ai , aj)= I(ai )+ I(aj);

Подставляем I(ai)=φ(P(ai)) ,

получаем - φ(P (ai , aj))= φ(P (ai ))+ φ(P (aj));

Но P (ai , aj))= P (ai )* P ( aj),

тогда имеем φ(P(ai )* P ( aj) =φ(P (ai ))+ φ(P (aj)) -- *;

Пусть P (ai )=P, P (aj)=Q, (P≠0, Q≠0)

Тогда из * имеем φ(P* Q) =φ(P)+ φ(Q);

Или φ(P)+ φ(Q) = φ(P* Q);

Продифференцируем данное равенство по P

φ’(P)+ 0 = Q*φ’(P* Q);

Умножим обе части на P

P* φ’(P) = P*Q*φ’(P* Q); - пусть QP = R

Имеем P* φ’(P) = R*φ’(R) = K;, где К некоторая константа, коэффициент

Имеем P* φ’(P) = K или φ’(P)= K/P – дифференциальное уравнение первого порядка, табличное причем.

Имеет решение такого вида φ(P) = K*ln(P)+C, где С - константа.

Находим С на основе первого свойства информации ( φ(1) = 0);

0 = K*ln(1)+C

С=- K*ln(1)=0;

Тогда формула количества информации имеет вид

I(ai)=φ(P(ai)) = K*ln(P(ai));

Коэффициент K определяет величину единицы информации, так как P(ai) < 1, то ln(P(ai) < 0, следовательно чтобы количество информации было положительным целесообразно использовать K < 0 (отрицательное)

Пусть K=-1, тогда

I(ai)= - ln(P(ai)) = ln(1/P(ai))

Исходя из данного равенства количество информации будет равно 1, когда вероятность выбора, о котором передает сообщение будет 1/e.

Обычно принято, что в качестве K = - 1/ln(2), при таком К формула имеет вид

I(ai)=φ(P(ai)) = - 1 / ln(2)*ln(P(ai)) =- ln(P(ai)) / ln(2) = - log2(P(ai)) = log2(1/P(ai)), тогда количество информации, величиной 1, передает сообщение о выборе вероятность которого 1/2 (орел/решка) . Такая величина информации обозначается как бит.