Добавил:
Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:
Романов - Теория измерений - Точность средств измерений - 2003.pdf
Скачиваний:
87
Добавлен:
11.08.2013
Размер:
1.11 Mб
Скачать

3. Определение переходной функции системы

Пусть передаточная функция системы представима в виде отношения двух многочленов:

W ( p) = B( p)

,

(3.1)

A( p)

 

 

где – B(p)=b0pm+…+bm; A(p)=a0pn+…+an,причем m<n.

Передаточная функция связана с переходной функцией преобразованием Лапласа:

W ( p) =h(τ)epτdτ; p =α + jβ .

(3.2)

0

 

Тогда переходная функция системы находится с помощью обратного преобразования Лапласа:

h(τ) = L1[W ( p)],

 

(3.3)

 

1

σ + j

 

L1[W ( p)] =

1

W ( p)eptdp .

(3.4)

2π j σ

 

j

 

 

 

1

 

 

Для вычисления обратного преобразования Лапласа сначала находятся корни pk характеристического уравнения A(p)=0: непосредственно (при n4) или численными методами (при

n>4). Если все корни простые, то есть А(р)=a0(рр1) (рр2) … (ррn), то имеет место соотношение:

B( p)

n

B( p ) p t

 

 

L1[W ( p)] = L1[ A( p)

] =

k

e k

; (t >0) .

(3.5)

A( p )

 

k=1

k

 

 

Если корни кратные, то есть A( p) =a ( p p )l1...( p p )ln , то

0

1

n

L1 определяется выражением (формула Хевисайда):

 

 

 

 

 

 

n

1

 

 

 

 

 

( p

 

 

lk

B( p)e

pt

 

(l 1)

 

 

L1[W ( p)] =

 

 

[

pk )

 

 

 

]pk=pk

(3.6)

 

 

 

 

 

 

 

 

A( p)

 

 

 

 

 

 

 

 

 

 

k=1

(lk 1)!

 

 

 

 

 

 

 

 

 

 

 

 

 

 

Выражение (3.6) можно представить в виде:

 

 

 

 

 

 

 

 

n

lk

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

L1[W ( p)] =∑∑Hkitlk iepkt , (t >0) ,

 

 

 

 

 

 

(3.7)

где

 

 

 

 

k=1 i=1

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

( p pk )lk B( p)

 

 

 

 

 

 

H

 

=

 

1

 

 

 

di1

[

]p=p .

(3.8)

ki

 

 

 

 

 

 

 

 

 

 

 

A( p)

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

k

 

 

 

 

 

 

 

(i 1)!(lk 1)!dpi

1

 

 

 

 

 

 

 

 

корни рk имеют

Отметим,

что

система

 

устойчива,

 

если

отрицательные действительные части.

 

 

 

 

 

 

В частности, если W ( p) =

 

 

 

1

 

 

 

 

 

, то

( p p )( p p )( p p )

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

1

 

 

 

2

 

3

 

h(t) = L1[W ( p)] =C ep1t

+C ep2t

+C ep3t

,

 

(3.9)

где

 

 

 

 

 

 

 

 

1

 

 

 

 

 

 

 

2

3

 

 

 

 

 

 

 

 

 

 

 

 

1

 

 

 

 

 

 

 

 

 

 

 

 

 

 

1

 

 

 

 

 

 

 

 

C1 =

 

 

 

 

 

 

 

;C2

=

 

 

 

 

 

 

 

;

 

( p p )( p p )

( p p )( p p )

 

 

 

 

 

 

 

1

2

1

 

 

3

 

 

 

 

 

 

 

2

1

 

2

3

 

 

 

C3 =

 

 

 

1

 

 

 

 

 

 

 

.

 

 

 

 

 

 

 

 

 

 

 

 

(3.10)

 

( p3 p1)( p3 p2)

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

Вместо формулы Хевисайда можно использовать разложение, применяемое при решении дифференциальных уравнений. Если А(р) и В(р) не имеют совпадающих корней, то каждому действительному корню рk уравнения А(р)=0 отвечает lk простых дробей вида:

c

,

c

 

cl

,

(3.11)

p pk

( p pk )2

,..., ( p p )lk

1

 

2

 

k

 

 

k

где lk – кратность корня рk. Каждой паре комплексносопряженных корней рk =α+iβ отвечает lk простых дробей вида:

p +g

 

p +g

 

]2

 

p + gl

]lk

,

d1 ( p α)2 +β2

,d2 [( p α)2 +β2

,...,dlk [( p α)2 +β2

1

 

 

2

 

 

k

 

 

где lk – кратность корней рk=α+iβ.

Тогда L1[W ( p)] находится как сумма обратных преобразований

Лапласа таких слагаемых. В частности,

1

1

 

 

p t

 

 

 

 

 

 

 

 

 

 

 

L [

 

] =e 1

 

,

 

 

 

 

 

 

 

 

(3.12)

p p

 

 

 

 

 

 

 

 

 

 

1

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

L1[

1

 

 

] =tep1t ,

 

 

 

 

 

 

(3.13)

( p p )2

 

 

 

 

 

 

 

1

 

 

 

 

 

 

 

 

 

 

 

 

 

L1[

p + g

 

 

] =C eαt sin(βt +ϕ) ,

(3.14)

( p α)2 +β

2

 

 

 

 

1

 

 

 

 

 

 

 

1

[(α +g)

2

+β

2 1/2

 

β

 

где C1 = β

 

]

 

, ϕ =arctg α+g ;

 

1

 

 

1

 

 

 

 

 

 

 

 

1

 

αt

 

 

L [

 

]

=

 

e

(sin βt βt cos βt) .

(3.15)

[( p α)2 +β2]2

2β3

Вопросы этого раздела рассмотрены, например, в [20, 45].

4. Типы распределений, используемых при оценке надежности СИ

Распределение Вейбулла. Оно является непрерывным. Плотность распределения задается выражением:

f (x;a,b,c) =c /b((x a)/b)c1 exp{((x a)/b)c},

(4.1)

где х – случайная величина; x>a, b>0, c>0, a – параметр сдвига, b

– параметр масштаба, с – параметр формы. При испытаниях на долговечность параметр а обозначает длительность начального периода, в течение которого происходят отказы. Интенсивность отказов и плотность распределения Вейбулла принимают различные формы при разных с. В частности, при с>1 распределение одновершинное, и интенсивность отказов возрастает с течением времени. При с<1 распределение имеет вид

кривой убывающей функции, и интенсивность отказов с течением времени уменьшается. При с=1 интенсивность отказов постоянна, и распределение Вейбулла совпадает с экспоненциальным(см. ниже). В этом случае параметр масштаба b=1, где λ – параметр экспоненциального распределения. Распределение Вейбулла часто используется в качестве модели для времени безотказной работы на основе экспериментальных данных. Вероятность отказа за время t определяется выражением:

t

P0(t) =a f (x;a,b,c)dx =1exp{((t a)/b)c}. (4.2)

Математическое ожидание для этого распределения равно:

E[x] =ab +b2 / cΓ(1/ c) .

(4.3)

Дисперсия равна:

 

D[x] =a2 ab +2ab/ cΓ(1/ c) b2 / cΓ(1/ c) +2b2 / cΓ(2/ c).

(4.4)

Отрицательное экспоненциальное распределение. Оно также является непрерывным. Плотность экспоненциального распределения равна:

f (x,λ) =λexp(λx); x 0, λ >0 ,

(4.5)

где λ имеет смысл интенсивности отказов. Иногда употребляется другой параметр b=1. Экспоненциальное распределение является частным случаем гамма-распределения при с=1. В теории надежности это распределение является статистической моделью времени безотказной работы для системы с большим числом последовательно соединенных элементов. Вероятность отказа системы за время t дается выражением:

P0(t) =1exp(λt) .

(4.6)

Для этого распределения характерна резко выраженная правосторонняя (положительная) асимметрия, кроме того, математическое ожидание равно среднеквадратичному отклонению. Математическое ожидание определяется выражением:

E[x] = D[x] =xλexp(λx)dx =1/ λ.

(4.7)

0

 

Биномиальное и отрицательное биномиальное распределение. Эти распределения являются дискретными. Предположим, что проводится серия независимых испытаний, в каждом из которых возможны лишь два исхода: успех или неудача. Обозначим вероятность успеха р, а вероятность неудачи q=1–р. Предполагается, что р одинаково в каждом испытании. Например, при контроле СИ р – вероятность, что СИ будет годным, а q – что негодным. Тогда вероятность того, что в последовательности из n испытаний успехи осуществляются в точности k раз, дается выражением:

P(x =k) =Ck pk qnk , 0 < p <1.

(4.8)

n

 

Функция (4.8), определенная при k=0,1,…,n, задает биномиальное распределение с параметрами n и p. Это очень важное дискретное распределение, широко используемое при статистическом контроле качества продукции, при описании систем массового обслуживания и т.п. Биномиальное распределение симметрично при р=0,5; при р<0,5 – более пологое справа; при р>0,5 распределение более пологое слева. При расчетах вероятностей удобно рекуррентная формула:

P(k +1) =(n kp)P(k)/((k +1)q) .

(4.9)

Математическое ожидание для этого распределения равно E[x=k]=np; а дисперсия D[x=k]=npq, т.е. дисперсия меньше среднего. Отрицательное биномиальное распределение получило свое название в связи с тем, что формула распределения вероятностей для него определяется разложением бинома с отрицательной степенью. В этом распределении число испытаний является случайной величиной, и число успехов k становится параметром. Распределение позволяет определить вероятность числа неудач r до k-го успеха, которая равна члену

биномиального разложения выражения pk(1–q)-k, включающему qr, а именно:

P(x =r) =Cr

+r1

pk qr ; n 0; 0 < p <1.

(4.10)

k

 

 

Математическое ожидание равно: E[x=r] = kq/p, а дисперсия: D[x]=kq/. Легко видеть, что для этого распределения наблюдаемая дисперсия больше наблюдаемого среднего. Отрицательное биномиальное распределение имеет интересные приложения. Например, оно позволяет оценить «склонность» к отказам, авариям, несчастным случаям объектов некоторого типа.

Распределение Пуассона. Это распределение является дискретным. Если в биномиальном распределении положить np=λ и при постоянном λ увеличивать n (n →∞), то биномиальное распределение перейдет в распределение Пуассона с параметром λ. Это распределение используется для определения вероятности появления относительно редких случайных событий в единицу времени, на единицу площади или объема, например, число случаев брака, число внезапных отказов, число стихийных бедствий и т.д. на единицу времени или пространства. Вероятность числа таких событий за фиксированный интервал времени дается выражением

P(x =r) =λreλ / r!, 0 <λ <∞.

(4.11)

Математическое ожидание для этого распределения равно дисперсии: Е[х]=D[х]=λ, и определяется параметром λ. Распределение имеет положительную асимметрию λ0,5, которая стремится к нулю с ростом λ, т.е. с увеличением λ распределение становится более симметричным, отдельные вероятности при λ<1 с ростом r уменьшаются; при λ>1 – сначала увеличиваются, затем уменьшаются. Максимум распределения приходится на ближайшее целое, меньше λ. При четном λ имеются два равных максимума вероятностей. Отметим, что сумма случайных величин, каждая из которых имеет распределение fi , имеет обобщенное распределение Пуассона

(hi )t =eλt [(λt)n / n!] fin , (4.12)

n=0

где fin – свертка n функций fi . В частности, если распределение fi пуассоновское, то fi2 = f (r;2λ), где f (r;2λ) – распределение

вида (4.11).

Гамма-распределение. Это распределение является непрерывным и используется для описания случайных величин, ограниченных с одной стороны. Его плотность имеет вид

 

1

 

x a

c1

xa

 

 

f (x) =

 

 

e

 

b ; x 0; b >0; c 0,5 ,

(4.13)

 

b

 

bΓ(c)

 

 

 

 

 

 

где а – параметр сдвига, b – параметр масштаба, с – параметр формы, Г(с) – известная гамма-функция. Если с – положительное целое число, то Г(с)=(с-1)!. Обычно полагают при расчетах а=0, а вместо b используют другой параметр λ=b ¹. При изменении параметра λ форма распределения не меняется, а меняется только масштаб. В частности, при с<1 плотность распределения имеет вид убывающей функции, а при с>1 представляет собой одновершинную кривую с максимумом в точке х=(с-1)/λ. Гаммараспределение описывает время, необходимое для появления ровно c независимых событий (например, отказов), если они происходят с постоянной интенсивностью. Гамма-распределение играет важную роль в теории массового обслуживания, где рассматриваются задачи, связанные с ожиданием в очереди. Если, например, заявки на контроль и ремонт СИ поступают с постоянной интенсивностью (λ единиц в месяц) независимо друг от друга, а контроль и ремонт СИ производится партиями объемом c, то время, за которое будут проверены все приборы является случайной величиной, подчиняющейся гаммараспределению. Его широкое использование объясняется тем, что гамма-распределение принимает самые разнообразные формы. Частными случаями этого распределения являются распределения: Эрланга, когда параметр с – натуральное число; "хи-квадрат", когда параметр λ=0,5 и с кратно 0,5; экспоненциальное, когда параметр с=1. Часто гаммараспределение используется в альтернативной форме:

 

1

 

p1

y

 

 

 

f (y) =

 

y

e

 

, 0

< p <∞,

(4.14)

Γ( p)

 

где p – параметр формы и введена новая переменная y=(xa)/b. Математическое ожидание в этом случае равно: M[y]=p; дисперсия равна математическому ожиданию, т.е. D[y]=p.

Вопросы, изложенные в данном разделе, рассмотрены,

например, в [22, 35, 45].