Добавил:
Upload Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:

Методические указания

.pdf
Скачиваний:
26
Добавлен:
09.02.2015
Размер:
2.98 Mб
Скачать

Если ПНК работает со скоростью v отсчетов в секунду в течение времени T , а для хранения каждого из отсчетов требуется n дво-

ичных разрядов, то общее количество информации, подлежащее хранению, будет равно:

Iхр =v T n =v T H0 =VЗУ

так как

Iхр(1) =n =logms = H0.

Пропускная способность ЗУ может быть определена как произведение емкости ЗУ VЗУ на частоту обращения Fобр к ЗУ:

CЗУ =VЗУ Fобр =k n Fобр

или

CЗУ =v T H0 Fобр.

6.5. Информационный критерий построения многоступенчатого ЗУ.

Кроме упомянутых выше показателей для характеристики ЗУ могут быть использованы информационно-статистические характеристики, зависящие от частоты обращения к числам, хранящимся в ЗУ при записи и при считывании.

Если обращение к числам при записи или при считывании производится с равной вероятностью, то величина относительной энтропии

η0(A)выбора чисел будет равна 1, а статистическая избыточность

ϕ0(A)=1η0(A)=0.

При неравновероятном и независимом обращении к числам, определяемом матрицей вида:

A1; K;

Ai;

 

K;

Ak

k )

 

,

1

( i )

 

(

 

p(A ); K;

p A

; K;

p A

 

где k p(Aj )=1, а p(Aj )— вероятность обращения к числу Aj

j =1

относительная энтропия и избыточность ЗУ будут иметь значения:

97

 

 

 

 

 

 

 

 

k

 

)log p(Aj )

η(A)=

H (A)

 

 

p(Aj

=

 

j =1

 

 

;

 

1

 

 

 

 

H

0

(A)

 

log A

 

 

 

 

 

 

 

 

 

k

 

 

 

 

ϕ

1(

A =1η

A .

 

 

 

 

 

)

 

(

)

 

Наличие избыточности при оценке ЗУ указывает на неравномерный в вероятностном смысле характер использования чисел и возможность построения многоступенчатого ЗУ с минимальной избыточностью для каждой из ступеней и различным быстродействием.

Размещение числовой информации в ЗУ по ступеням с одинаковой частотой обращения в каждой из них более экономично, поскольку для чисел с большой частотой обращения потребуются высокочастотные элементы, стоимость которых выше, чем низкочастотных.

Таким образом, основными характеристиками, которые могут быть использованы для описания и оценки статистических свойств сигналов и каналов информационных систем хранения информации, являются энтропия, информационная избыточность и пропускная способность.

98

7.Измерение информации.

7.1.Исходные положения.

Измерение — есть процесс нахождения значений физической величины опытным путем с помощью специальных технических средств. В ИВК процесс измерения как входных, так и промежуточных величин завершается представлением измерительной информации в форме, удобной для дальнейшего использования. При этом измерительную информацию можно представить как совокупность сообщений о значениях измеряемых величин. В общем случае измеряемые величины могут быть представлены такими физическими параметрами

как напряжение постоянного (U) или переменного (U~ ) тока, сдвиг по фазе напряжения переменного тока (α~ ), временной интервал (τ), частота напряжения переменного тока (f~ ), сопротивление (R) или проводимость (Y ) резистора, угловое (ϕ) или линейное (L)перемещение и др.

Если S рассматривать как обобщающий символ аналоговой формы представления перечисленных выше физических параметров, то можно записать:

S (U;U~ ;α~ ;τ; f ; R; Y;ϕ; L;K).

Для представления результатов измерения в ИВК в общем случае могут быть использованы различные цифровые коды, такие как уни-

тарный (N1 ), двоичный (N2 ), троичный (N3 ), восьмеричный

(N8 ), двоично-десятичный (N210 ), десятичный (N10 )и др.

Если N — обобщающий символ цифровой формы представления информации, то:

N(N1; N2; N3; N8; N210 ;K).

7.2.Оценка измерительного процесса без учета помех.

Все измерительные процессы являются случайными, вследствие чего их математические модели строятся на основе теории вероятностей.

Пусть случайная величина X , подлежащая измерению, характеризуется мгновенными значениями xi с равновероятным распределе-

нием и разрешающей способностью

99

p(xi )в
x 0 .

ma = xmax xmin +1,

2 x

где xmax и xmin — наибольшее и наименьшее значения мгновен-

ных значений xi амплитуд измеряемых величин; ± x — погреш-

ность измерения.

Максимальное число различимых градаций мощности:

mp = Pmax Pmin +1,

2 x2

где Pmax и Pmin — соответственно, наибольшая и наименьшая

мощности, выделяемые на сопротивлении x2 .

Для цифровых измерительных приборов

mц = f τ +1,

где f — частота счета; τ — время успокоения. При m >>1 еди-

ницей можно пренебречь.

Вероятность появления любого случайного значения xi имеет сле-

дующее выражение:

 

 

 

 

1

 

1

 

p(xi )= P(X =xi )=

 

;

m =

 

.

m

p(xi )

Получаемое при этом количество информации:

I(x)=logm =−log p(xi ).

В случае неравновероятного распределения m информационная энтропия случайного процесса будет:

( )

 

i

(

i )

i

( i )

 

H x

=

I(x)= m p(x

)I x

 

=− m p(x )log p x .

(7.1)

 

 

i =1

 

 

 

i =1

 

 

 

Процесс измерения непрерывных сигналов при его идеализации характеризуется тем, что погрешность измерения В этом случае вероятность появления измеряемого сигнала

интервале xi ÷(xi + x) или

x = xi+1 xi при известной плотно-

сти распределения вероятности

p0 (xi )определяется соотношением:

p(xi )= p0(xi ) x

(7.2)

Энтропия непрерывного сигнала при

x 0 в соответствии с 7.1 и

7.2 может быть представлена в виде:

100

H(x)=− lim

p0 (xi ) xlog[p0 (xi )

x]=

 

 

 

x0

i =−∞

 

 

 

 

 

 

 

 

 

 

 

 

=− lim

p0 (xi )

xlogp0

(xi )lim

p0 (xi ) xlog

x =

x0i =−∞

 

 

x0i =−∞

 

 

(xi )log p0

(xi )dx

 

 

=− p0

p0 (xi )dx lim log

x

=

−∞

 

 

 

−∞

x0 i=−∞

 

 

 

 

 

14243

1442443

 

 

 

 

 

=1

=C

 

 

=− p0 (xi )log p0 (xi )dx +C.

−∞

В практическом отношении величина x всегда ограничена и, как будет показано ниже, вторым слагаемым можно пренебречь, поскольку при вычислении разностей значений энтропий оно все равно исчезает.

В соответствии с изложенным исходная (априорная) энтропия не-

прерывного случайного

измерительного

входного

 

вх

()

сигнала x

t

идеальной измерительной системы составит:

 

 

 

H x

=− p(x

вх

)log p x

dx + lim log 1

.

 

( вх )

(

вх )

x0

(

x)

 

 

−∞

 

 

 

 

 

 

 

В этом случае количество информации полученное в результате измерения, будет равно энтропии H(xвх ), то есть:

I(xвх; xвых)= H(xвх )0.

Пример 7.1. Пусть измерительный прибор имеет шкалу, соответст-

вующую диапазону измерений (xa )max (xa )min =100% и погреш-

ность xa 1%. Определить количество информации, получае-

мое от измерительного прибора.

Решение. Максимальное число различимых градаций амплитуд измеряемой величины составит:

m =1002 +1=51.

Количество информации, получаемое в процессе измерения, будет:

I x

=log51=5,64 6

дв.ед..

( )

 

[

]

101

7.3. Оценка измерительного процесса с учетом помех.

Вреальных условиях полезный сигнал на выходе измерительного прибора содержит в себе и помеху. В этом случае часть входной информации теряется уже на входе из-за воздействия помех.

Вэтом случае:

I(x)= H(xвх )H xвх xвых .

Наличие входных помех вносит в измерительный тракт ложную информацию, которая создает погрешность на выходе измерительного прибора.

Среднее количество информации, содержащееся в сигнале помехи, составляет энтропию погрешности:

H xвых

x

 

= H xвх

x

.

 

 

 

 

 

 

вх

 

 

вых

В результате среднее количество информации, содержащееся в выходном сигнале измерительного прибора, то есть энтропия выходно-

го

сигнала

H(xвых )

 

складывается из

 

энтропии

погрешности

x

вых x

 

 

 

 

 

 

 

 

 

 

 

 

 

H

 

 

и количества информации, получаемого в результате

 

 

 

вх

 

 

 

 

 

 

 

 

 

 

 

идеального процесса измерения, то есть

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

x

вых x

 

 

 

 

I(xвых)= H(xвх; xвых)= H(xвых)H

вх

.

(7.3)

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

()

Пример 7.2.

Пусть измерительный сигнал

вх

()

 

вх

x

 

t

и помеха h

t

имеют нормальный закон распределения:

 

 

 

 

 

 

 

 

 

 

 

1

 

 

(x x)2

 

 

 

 

 

 

 

 

 

 

 

 

 

i

 

 

 

 

 

 

 

 

 

 

p(x)=σ

 

π exp

 

 

,

−∞<xi <∞.

 

 

 

 

 

2σ 2

 

 

 

 

 

 

 

2

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

Определить количество информации, получаемое на выходе измери-

тельного прибора.

 

 

 

 

 

 

Решение. Исходная (априорная) энтропия:

x0(

 

x)

( вх )

[

вх

]

1

H x

=0,5log 2π ex2

(t)+ lim

.

102

Полагая, что помеха действует только на входе измерительного прибора, ее условную энтропию можно выразить как:

x

 

x

 

 

 

x

 

x

 

 

 

=−

 

 

 

 

H

 

вх

 

= H

 

вых

вх

 

p(x)log p(x)dx+C=

 

 

 

 

вых

 

 

 

 

 

 

 

 

 

 

−∞

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

1

 

 

 

 

 

 

 

 

 

 

 

 

.

 

 

 

 

 

=0,5log 2π eh2

(t)+ lim

 

 

 

 

 

 

 

 

 

[

 

вх

 

]

x0(

 

 

 

x)

 

 

 

 

 

 

Энтропия выходного сигнала:

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

H(x

вых

)

=0,5log 2π e[x2 (t)+

h2

 

(t)]+ lim

1

.

 

 

 

 

 

{

 

 

вх

 

 

 

 

вх

 

}

x0(

 

x)

Количество получаемой информации в соответствии с 7.3 :

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

x

2

(t)

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

H(xвх; xвых )=0,5log 1+

 

вх

 

 

 

 

2

 

.

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

hвх(t)

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

Энтропийная трактовка процесса измерения. Пусть измеряемая ве-

личина x изменяется в диапазоне xn ÷x0 (отс.7.1) при использова-

нии шкалы с m делениями. В качестве меры неопределенности числового значения измеряемой величины может быть принята апри-

орная энтропия H0(x) в интервале x0 ÷xm с числом делений m .

Для этого случая:

H0(x)шк =logm =−log p0(x)

При отсутствии априорной информации о законе распределения измеряемой величины он принимается равномерным, вследствие чего:

H0(x)=−log p0(x)=log(xn x0 )= H0(x)шк.

В общем случае, при априорном неравновероятном распределении измеряемой величины имеем:

H (x)=−∑m p(xi )log p(xi )при p(xi )=1.

1

i

i =0

Если принять, что x 0 , то априорная , а также и апостериорная

энтропия HИЗМ =0 , вследствие

чего количество информации

I(x)ИЗМ , полученное после измерения, было бы:

I(x)ИЗМ = H1(x)H(x)ИЗМ = H0(x).

Однако, это невозможно из-за ограничения разрешающей способности шкалы, а следовательно, и результата измерения.

103

Для количественной оценки результата измерения обозначим цену деления шкалы xi+1 xi как x , а априорную плотность распреде-

ления вероятности результата измерения через

p0(x)= p0 (xi ) x.

Тогда (с учетом того, что логарифм произведения равен сумме логариф- мов):

m

H1(x)=− lim p(x) xlog[p(x) x]=

x0

(n→∞) 0

m

=− lim p(x)logp(x)

x0 0

=−xmp(x)log p(x)dxxm

x0

x0

m

xlim p(x) xlog x log x=

x0 0

p(x)dx log x=

123 123

=1 =C

=xmp(x)log p(x)dx+C.

x0

(7.4)

Аналогично, апостериорная энтропия результата измерения будет:

H(x)ИЗМ =−xjp(x)log p(x)dx+C.

xi

Тогда:

 

x

m

 

x j

 

I(x)

=−

 

 

 

p0 (x)log p0 (x)dx+C − − ∫ p(x)log p(x)dx+C ,

ИЗМ

 

 

 

x

 

 

x0

 

i

 

откуда:

 

 

 

 

 

 

 

 

I(x)

=−xm p0 (x)log p0 (x)dx+xj p(x)log p(x)dx

 

ИЗМ

 

 

xi

 

 

 

x0

 

 

104

или :

I(x)ИЗМ = H0(x)H(x)ИЗМ < H0(x).

Таким образом, в результате измерения происходит сужение интервала неопределенности, т.е. уточнение размера измеряемой величины.

Рис.7.1. Энтропийная трактовка процесса измерения.

Энтропийная оценка погрешности измерения.

Вкачестве параметра информационной модели процесса измерения может быть использовано энтропийное значение погрешности измерения.

Вэтом случае количество информации I(x)в измеряемой величине

xопределяется в соответствии с выражением

I(x)= H(x)H xи xр ,

где H(x)– априорная энтропия измеряемой величины x до ее измерения;

105

p1(x)

H xи xр — условная апостериорная энтропия истинного значе-

ния измеряемой величины xи при условии, что после измерения получен результат измерения xр .

Величины xи и xр имеют разные значения в связи с воздействием

случайных помех, порождающих составляющую случайной погрешности.

При таком подходе принимается, что до начала измерения известен закон распределения измеряемой величины в соответствии с

которыми величина x может принимать любое значение в заданном диапазоне измерения.

После получения результата измерения xр остается неопределен-

ность относительно истинного значения xи из-за наличия случайной

погрешности.

Такое состояние процесса измерения описывается условной вероят-

x

и

 

xи

при условии получения

ностью p

истинного значения

2

 

xр

 

 

x

 

 

результата измерения xр . Зная функции p (x) и

и

 

p

на

 

 

 

 

1

2

 

xр

основании известных выражений для энтропии можно записать:

H(x)=− p1(x)log p1(x);

−∞

H xи xр =−p2 xи xр log p2 xи xр .

В качестве исходной (эталонной) ситуации используется равномер-

ное распределение

p

(x)и

p

 

 

, как показано на рис.7.2.

xи

 

 

1Э

 

2Э

 

 

 

 

 

 

 

xр

 

106