Добавил:
Upload Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:
ЛЕКЦИЯ ГЭК ВОПРОСЫ по стандартиз метрол и серти...doc
Скачиваний:
19
Добавлен:
16.09.2019
Размер:
1.04 Mб
Скачать

4. Метрологические характеристики средств измерений и погрешности измерений

Оценка пригодности средств измерений для решения тех или иных измерительных задач проводится путем рассмотрения их метрологических характеристик.

Метрологическая характеристика (МХ) – характеристика одного из свойств средства измерений, влияющая на результат измерений и его погрешность. Метрологические характеристики позволяют судить об их пригодности для измерений в известном диапазоне с известной точностью. Метрологические характеристики, устанавливаемые нормативными документами на средства измерений, называют нормируемыми метрологическими характеристиками, а определяемые экспериментально – действительными.

Для каждого типа СИ устанавливаются свои метрологические характеристики. Ниже рассматриваются на практике наиболее распространенные из них.

Диапазон измерений СИ – область значений величины, в пределах которой нормированы его допускаемые пределы погрешности. Для мер это их номинальное значение, для преобразователей – диапазон преобразования. Различают нижний и верхний пределы измерений, которые выражаются значениями величины, ограничивающими диапазон измерений снизу и сверху.

Стабильность СИ – качественная характеристика средства измерений, отражающая неизменность во времени его метрологических характеристик.

Градуировочная характеристика СИ – зависимость между значениями величин на входе и выходе средства измерений, полученная экспериментально. Может быть выражена в виде формулы, графика или таблицы.

Погрешность СИ – разность между показанием средства измерений – Хп и истинным (действительным) значением измеряемой величины – Хд.

Классификация погрешностей измерений может осуществляться по разным классификационным признакам (основаниям), например по формам их выражения (абсолютные и относительные погрешности), по формам используемых оценок (доверительные границы, предельные, средние арифметические, средние квадратические значения, значения размаха и др.), а также по источникам возникновения (инструментальные, погрешности метода и т. д.), по значимости (значимые, пренебрежимо малые). По характеру проявления наиболее часто погрешности делят на случайные, систематические и грубые. Специфический характер носит деление погрешностей на статические и динамические.

Общеприняты и практически непротиворечивы классификации погрешностей измерений по формам их выражения. Абсолютные погрешности выражают в единицах измеряемой величины, а относительные, которые представляют собой отношение абсолютной погрешности к значению измеряемой величины, могут быть выражены в неименованных или именованных относительных единицах, например в процентах или в промилле.

Абсолютная погрешность СИ – погрешность средства измерений, выраженная в единицах измеряемой величины: ∆Х = Хп – Хд. Абсолютная погрешность удобна для практического применения, т. к. дает значение погрешности в единицах измеряемой величины. Но при ее использовании трудно сравнивать по точности приборы с разными диапазонами измерений. Эта проблема снимается при использовании относительных погрешностей.

Если абсолютная погрешность не изменяется во всем диапазоне измерения, то она называется аддитивной, если она изменяется пропорционально измеряемой величине (увеличивается с ее увеличением), то она называется мультипликативной.

Относительная погрешность СИ – погрешность средства измерений, выраженная отношением абсолютной погрешности СИ к результату измерений или к действительному значению измеренной величины: δ = ∆Х / Хд. Относительная погрешность дает наилучшее из всех видов погрешностей представление об уровне точности измерений, который может быть достигнут при использовании данного средства измерений. Однако она обычно существенно изменяется вдоль шкалы прибора, например увеличивается с уменьшением значения измеряемой величины. В связи с этим часто используют приведенную погрешность.

Приведенная погрешность СИ – относительная погрешность, выраженная отношением абсолютной погрешности средства измерений к условно принятому значению величины ХN, которое называют нормирующим: γ = ∆Х / ХN.

Относительные и приведенные погрешности обычно выражают либо в процентах, либо в относительных единицах (долях единицы).

Для показывающих приборов нормирующее значение устанавливается в зависимости от особенностей и характера шкалы. Приведенные погрешности позволяют сравнивать по точности средства измерений, имеющие разные пределы измерений, если абсолютные погрешности каждого из них не зависят от значения измеряемой величины.

В качестве нормирующей величины могут использоваться верхний предел измерений, больший из модулей пределов измерений (если нулевое значение находится внутри диапазона измерений, а верхний и нижний пределы не одинаковы по модулю) и др., оговоренные ГОСТ 8.401-80.

Классификации погрешностей измерений по источникам возникновения несколько разнообразней и запутанней. Очевидно, что не может быть абсолютно строгой классификации источников погрешностей, поскольку погрешности метода связаны с выбранным средством измерений, дискомфортные условия измерений приводят к увеличению субъективных погрешностей и т. д. Наиболее логичным представляется следующее деление погрешностей по источникам их возникновения:

– инструментальные погрешности (погрешности средств измерений, или аппаратурные погрешности);

– погрешности метода (методические погрешности измерения);

– погрешности «условий» (погрешности из-за отличия условий измерения от нормальных);

– субъективные погрешности (погрешности оператора, личные или личностные погрешности).

К инструментальным погрешностям относят все погрешности применяемых к данной методике средств измерений и вспомогательных устройств, например погрешности прибора, мер для его настройки, установочных узлов или соединительных проводов и т. д. Так, при измерении диаметра детали индикатором часового типа на стойке инструментальные погрешности складываются из погрешностей самой измерительной головки, погрешностей стойки и погрешностей блока концевых мер или аттестованной детали, на которую настраивался прибор.

Погрешности метода могут возникать из-за теоретических допущений, принятых при измерении или обработке результатов, а также используемых в ходе измерительного преобразования приближений и упрощений (несоответствие процесса измерительного преобразования его идеальной модели). Другой возможной причиной погрешностей метода является идеализация реального объекта измерений (его несоответствие идеализированной модели, положенной в основу процесса измерения).

Например, при косвенных измерениях больших диаметров, когда рулеткой измеряют длину окружности, а затем рассчитывают диаметр, теоретическая погрешность метода будет присутствовать в любом случае из-за трансцендентности числа L. Аналогично возникают погрешности метода при измерении площади круглых сечений, объема и плотности материала тел с такими сечениями.

При измерении азимута по магнитному компасу погрешность метода возникает из-за несовпадения магнитных и географических полюсов Земли.

Измерение параметров электрической цепи специально подключаемым прибором приводит к изменению структуры цепи из-за подключения дополнительной нагрузки. Результаты измерений электрических параметров объектов могут искажаться также из-за наличия присоединительных проводов, меняющихся переходных сопротивлений в местах присоединения чувствительных элементов (щупов) измерительных приборов.

Измерение массы взвешиванием на рычажных весах с гирями в воздушной среде обычно осуществляют без учета воздействия на меры и объект выталкивающей архимедовой силы.

Как правило, погрешности из-за принятых допущений пренебрежимо малы, но в случае прецизионных измерений их приходится учитывать или компенсировать.

По условиям проведения измерений погрешности средств измерений подразделяются на основные и дополнительные.

Основная погрешность СИ – погрешность средства измерений, применяемого в нормальных условиях, т. е. в условиях, которые определены в НТД для него как нормальные.

Нормальные условия измерений связаны с понятием влияющих физических величин, которые не являются измеряемыми, но оказывают влияние на результаты измерений. Пределы допустимых изменений таких величин или их отклонений от номинальных значений ограничивают, как правило, нормальной (для обеспечения нормальных условий) или рабочей областью значений (для обеспечения рабочих условий измерений).

Нормальные значения влияющих величин указывают в стандартах или технических условиях на средства измерений данного вида в форме номиналов с нормированными отклонениями. Наиболее типичными нормальными условиями являются:

– температура (20 ± 5) ºС;

– относительная влажность (65±15) %;

– атмосферное давление (100 ± 4) кПа или (750 ± 30) мм рт. ст.;

– напряжение питания электрической сети 220 В ± 2 % с частотой 50 Гц.

Иногда вместо номинальных значений влияющих величин указывается нормальная область их значений. Например, влажность (30–80) %.

К погрешностям из-за несоблюдения нормальных условий измерений следует отнести дополнительную погрешность.

Дополнительная погрешность СИ – составляющая погрешности СИ, возникающая дополнительно к основной погрешности вследствие отклонения какой-либо из влияющих величин от нормального ее значения. Деление погрешностей на основные и дополнительные обусловлено тем, что свойства средств измерений зависят от внешних условий. Нормальные условия измерений устанавливаются таким образом, чтобы погрешности «условий» оказались пренебрежимо малыми.

Влияющие физические величины обычно обусловлены температурными, электромагнитными и другими полями, наличием вибраций, избыточной влажностью. Есть множество других факторов, которые могут привести к искажению самой измеряемой величины и (или) измерительной информации о ней. Поиск влияющих величин осуществляется при анализе конкретной методики выполнения измерений.

Следует внимательно относиться к дополнительным погрешностям средств измерений из-за действия влияющих величин, поскольку учет только этих составляющих может привести к «потере» результатов воздействия влияющих величин на объект измерения.

Погрешности по своему происхождению разделяются на систематические и случайные.

Систематическая погрешность СИ – составляющая погрешности средства измерений, принимаемая за постоянную или закономерно изменяющуюся. Систематические погрешности являются в общем случае функциями измеряемой величины и влияющих величин (температуры, влажности, давления, напряжения питания и т. п.).

Случайная погрешность СИ – составляющая погрешности средства измерений, изменяющаяся случайным образом. Случайные погрешности средств измерений обусловлены случайными изменениями параметров составляющих этих СИ-элементов и случайными погрешностями отсчета показаний приборов.

При конструировании прибора его случайную погрешность стараются сделать незначительной в сравнении с другими погрешностями. У хорошо сконструированного и выполненного прибора случайная погрешность незначительна. Однако при увеличении чувствительности средств измерений обычно наблюдается увеличение случайной погрешности. Тогда при повторных измерениях одной и той же величины в одних и тех же условиях результаты будут различными. В таком случае приходится прибегать к многократным измерениям и к статистической обработке получаемых результатов. Как правило, случайная погрешность приборов снижается до такого уровня, что проводить многократные измерения нет необходимости.

Субъективные погрешности включают погрешности отсчитывания и погрешности манипулирования средствами измерений и измеряемым объектом. При измерениях часто приходится оперировать устройствами совмещения, настройки и корректировки нуля, арретирования, базирования СИ и измеряемого объекта или другими устройствами присоединения СИ к объекту для снятия сигнала измерительной информации.

Погрешности отсчитывания возникают при использовании аналоговых средств измерений с устройством выдачи измеритель­ной информации типа шкала – указатель. При положении указателя между отметками шкалы отсчитывание осуществляется либо с округлением до ближайшего деления, либо с интерполированием доли деления на глаз. В случае, если плоскости шкалы и указателя не совпадают, возможно возникновение погрешности отсчитывания из-за параллакса при «косом» направлении взгляда оператора. Очевидно, что погрешности отсчитывания в рассмотренной интерпретации невозможны при использовании «цифровых» приборов.

По значимости все погрешности (составляющие и суммарные) можно делить на значимые и пренебрежимо малые. К пренебрежимо малым составляющим погрешностям относят погрешности, значительно меньшие по сравнению с доминирующими. Эти погрешности при суммировании всех составляющих практически не оказывают влияния на окончательный результат. К ним, например, можно отнести любые случайные составляющие, которые на порядок меньше доминирующих погрешностей.

Погрешность измерения (суммарную) считают пренебрежимо малой, если отягощенный ею результат измерений может считаться действительным значением измеряемой величины. Иными словами, для установления действительного значения измеряемой физической величины следует предварительно выбрать допустимую погрешность измерений, которая и будет представлять собой предел пренебрежимо малого значения погрешности результата измерений.

Стандартные определения статической и динамической погрешностей приведены в качестве погрешностей средств измерений. Динамической погрешностью средства измерений в соответствии со стандартом называется составляющая погрешности, дополнительная к статической и возникающая при измерении в динамическом режиме.

При этом статической называется погрешность измерения постоянной величины, что несколько сужает понятие динамических измерений. Фактически динамический режим измерений может быть связан как с измерением изменяющейся величины, так и с измерением величины постоянной. И в том и в другом случае возможна слишком высокая скорость «подачи информации» на средство измерений.

Например, в контрольно-сортировочных автоматах для измерения диаметров тел качения подшипников измеряется постоянная физическая величина – длина. Но из-за необходимости обеспечить высокую производительность автомата скорость изменения входного сигнала измерительной информации может оказаться соизмеримой со скоростью преобразования измерительной информации средством измерения. Из-за «запаздывания» измерительного преобразователя возникают динамические погрешности.

Поскольку речь идет не столько о средствах измерений, сколько об их работе в специфическом режиме, погрешность следует рассматривать не как сугубо инструментальную, а более широко. Динамическая погрешность – составляющая итоговой (суммарной) погрешности измерения, которая обусловлена динамическим режимом измерений.