Добавил:
Upload Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:
UchebnoePosobieInformatika2012_-_RC4.docx
Скачиваний:
105
Добавлен:
26.05.2015
Размер:
2.75 Mб
Скачать

1.4 Семантическая мера информации

Вычислительные машины обрабатывают и преобразуют информацию разного содержания — от числовых данных до сочинения музыки и стихов. Вся эта информация изображается соответствующими символами. Оценка содержания разнохарактерной информации — весьма сложная проблема.

Среди семантических мер наиболее распространены содержательность, логическое количество, целесообразность и существенность информации.

Содержательность события выражается через функцию меры m(i) – содержательности его отрицания. Оценка содержательности осно­вана на математической логике, в которой логические функции истинности m(i) и ложности m(i ) имеют формальное сходство с функциями вероятностей события p(i) и антисобытия q(i) в теории вероятностей.

Как и вероятность, содержательность события изменяется в пределах 0m(i)1.

Логическое количество информации Inf , сходное со статистическим количеством информации, вычисляется по выражению:

Inf = log2 [1/m(i)] = –log2 m(i ) .

Отличие статистической оценки от логической состоит в том, что в первом случае учитываются вероятности реализации тех или иных событий, что приближает к оценке смысла информации.

Если информация используется в системах управления, то ее полезность целесообразно оценивать по тому эффекту, который она оказывает на результат управления.

Мера целесообразности информации определяется как изменение вероятности достижения цели при получении дополнительной информации. Полученная информация может быть пустой, т. е. не изменять вероятности достижения цели, и в этом случае ее мера равна нулю. В других случаях полученная информация может изменять положение дела в худшую сторону, т.е. уменьшить вероятность достижения цели, и тогда она будет дезинформацией, измеряющейся отрицательным значением количества информации. Наконец, в благоприятном случае получается добротная информация, которая увеличивает вероятность достижения цели и измеряется положительной величиной количества информации.

Мера целесообразности в общем виде может быть аналитически выражена в виде соотношения

Iцел = log2 p1 – log2 p0 = log2 , (1.8)

где p0иp1– начальная (до получения информации) и конечная (после получения информации) вероятности достижения цели.

Следует различать существенность самого события; существенность времени совершения события или его наблюдения (рано—поздно—момент); существенность координаты совершения события.

Измерение некоторого параметра X можно характеризовать несколькими функциями величины х: вероятностью р(х), погрешностью измерения (х) и существенностью с(х). Каждой из этих функций можно поставить в соответствие определенную меру информации. Мерой Хартли оценивается функция погрешности  при фиксированных значениях функции вероятности (р = const) и существенности (с = const). Мерой Шеннона оценивается функция вероятности (р = var) при фиксированных значениях функций погрешности ( = const) и существенности (с = const) . Мера существенности относится к ситуации с фиксированными функциями погрешности ( = const) и вероятности (р = const) . Можно ввести функции существенности: сх, зависящие от х; сT, cN, зависящие от времени Т и пространства (канала) N.

Соседние файлы в предмете [НЕСОРТИРОВАННОЕ]