Добавил:
Просто помощь нуждающимся из-за недостатка информации в типичных закомплексованных и алчных вУЗАх,если не жалко помочь взаимно, могу скинуть номер карты или ещё лучше совет дам, делитесь с полученной любой инфой или выполненной работой с другими... Так мы сможем поддерживать друг друга в любой ситуации! Да прибудет с нами сила! Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:
Методичка / Метрология методичка.docx
Скачиваний:
17
Добавлен:
10.12.2022
Размер:
2.8 Mб
Скачать

Лабораторная работа № 6.2 Метрологическая калибровка средств измерений

Цель работы

Изучить методы обеспечения единства измерений. Изучить способы нормирования и формы представления метрологических характеристик средств измерения. Приобрести навыки метрологической калибровки средств измерений.

Краткие теоретические сведения

Государственная система обеспечения единства измерений (ГСП) - это система обеспечения единства измерений в стране, реализуемая, управляемая и контролируемая федеральным органом исполнительной власти по метрологии - агентством Ростехрегулирование.

Единство измерений - состояние измерений, при котором их результаты выражены в узаконенных единицах величин и погрешности измерений не выходят за установленные границы с заданной вероятностью.

Деятельность по обеспечению единства измерений (ОЕИ) направлена на охрану прав и законных интересов граждан, установленного правопорядка и экономики путем защиты от отрицательных последствий недостоверных результатов измерений во всех сферах жизни общества на основе конституционных норм, законов, постановлений Правительства РФ и нормативных документов.

Согласно статье 13 Закона об обеспечении единства измерений в некоторых сферах деятельности осуществляется Государственный метрологический контроль и надзор (ГМКиН) государственными метрологическими службами с целью проверки соблюдения правил законодательной метрологии.

Под метрологической аттестацией понимают исследование средства измерений, выполняемое метрологическим органом с целью определения его метрологических свойств и выдачи соответствующего документа с указанием полученных данных.

По результатам метрологической аттестации средству измерений приписываются определенные метрологические характеристики, определяется возможность применения его в качестве образцового или рабочего средства измерений.

Поверка средства измерения - совокупность операций, выполняемых с целью определения и подтверждения действительных значений метрологических характеристик и (или) пригодности к применению средства измерений, подлежащего государственному метрологическому контролю и надзору.

Калибровка средства измерения - совокупность операций, выполняемых с целью определения и подтверждения действительных значений метрологических характеристик и (или) пригодности к применению средства измерений, не подлежащего государственному метрологическому контролю и надзору, или приведение метрологических характеристик в соответствие с указанными в технической документации путем регулировки.

Из определения можно сделать два вывода:

  1. калибровка проводится для тех СИ, которые не используются в сферах ГМКиН (установленных ст. 13 Закона об обеспечении единства измерений), а значит, не подлежат поверке;

  2. калибровка выполняет три основные функции:

  • определение и подтверждение действительных значений метрологических характеристик СИ;

  • определение и подтверждение пригодности СИ к применению;

  • регулировка СИ.

Поверка (калибровка) может быть первичной и вторичной. Первичная поверка проводится при выпуске из производства или ремонта и при ввозе по импорту СИ, вторичная - в процессе эксплуатации. Среди вторичных различают периодические, внеочередные и инспекционные поверки.

Периодической поверке подлежат СИ, находящиеся в эксплуатации или на хранении. Результаты периодической поверки действительны в течение межповерочного интервала. Межповерочный интервал устанавливается при утверждении типа.

Внеочередную поверку производят при эксплуатации (хранении) СИ в следующих случаях: повреждение знака поверительного клейма, а также утрата свидетельства о поверке; ввод в эксплуатацию СИ после длительного хранения (более одного межповерочного интервала); неудовлетворительная работа прибора или проведение повторной настройки после ударного воздействия на СИ.

Инспекционную поверку производят для выявления пригодности к применению СИ при осуществлении государственного метрологического надзора с целью оценки качества работы государственных поверителей.

Под метрологическими характеристиками СИ понимают характеристики, оказывающие влияние на результат измерений физических величин. Номенклатура нормируемых метрологических характеристик СИ устанавливается ГОСТ 8.009-84, который распространяется на нормативно-техническую документацию, регламентирующую метрологические характеристика СИ. Требования к нормированию погрешностей конкретных приборов устанавливаются на определенные виды средств измерения.

Для приборов нормируются: наименьшая цена деления неравномерной шкалы прибора; погрешности (систематическая Δs и случайная Δr составляющие, суммарная Δ); вариация показаний В; динамические характеристики; наибольшие допустимые изменения метрологических характеристик, вызванные изменениями внешних влияющих величин и неинформационных параметров входного сигнала, и другие.

Наиболее важными метрологическими характеристиками прибора являются погрешности, возникающие из-за несовпадения действительных свойств прибора с номинальными. Различают основную и дополнительные погрешности. Основная погрешность возникает при нормальных условиях использования прибора, а дополнительные - при отклонении условий использования за пределы нормальных. Пределы допускаемых значений основной и дополнительных погрешностей приборов устанавливаются в виде абсолютных и приведенных значений.

Абсолютная погрешность Δ прибора есть разность между показанием Хп прибора и истинным значением Хи измеряемой величины:

Δ≈Хn-Хи

Так как истинное значение неизвестно, то вместо него используют действительное значение Хд, за которое принимают при поверке показания Хо образцового прибора:

Δ≈Хд-Хо

При поверке стрелочных приборов отдельно оцениваются основная и дополнительные погрешности. Для каждой числовой отметки шкалы прибора определяют два значения, абсолютной погрешности: Δм - при увеличении и Δб- при уменьшении показаний прибора. Характер распределения Δ по диапазону измерения зависят от конкретного вида прибора.

Относительная погрешность 5 прибора определяется по формуле

где Хо - показания образцового прибора.

Относительная погрешность прибора распределена по диапазону измерения неравномерно. Например, у щитовых стрелочных приборов она велика в начале шкалы и минимальна в конце, поэтому при их использовании необходимо, чтобы стрелка прибора при снятии показаний находилась как можно ближе к конечной числовой отметке шкалы.

Для сравнения точности приборов, имеющих разные пределы измерения, введено понятие приведенной погрешности прибора у, определяемой по формуле:

где Хн - нормирующее значение.

В качестве нормирующего значения принимается значение, характерное для данного вида измерительного прибора. Это может быть, например, диапазон измерений, верхний предел измерений, длина шкалы и т.д.

Класс точности - обобщенная метрологическая характеристика прибора, определяющая точность, которая отражает предел допускаемых значений основной и дополнительных погрешностей, а также все другие свойства, влияющие на точность прибора. Например, для стрелочных амперметров и вольтметров ГОСТ 8711-93 устанавливает 11 классов точности: 0,05; 0,1; 0,2; 0,3; 0,5; 1,0; 1,5; 2,0; 2,5; 3,0; 5,0.

Важными метрологическими характеристиками стрелочных приборов является также вариации показаний и невозвращение стрелки к нулевой отметке на шкале.

Вследствие трения в подпятнике, гистерезисных явлений в пружинах, создающих противодействующий момент, и явления гистерезиса при перемагничивании магнитопроводов приборов отдельные повторные показания приборов при подходе стрелки снизу или сверху к определенной отметке на шкале будут отличаться, т.е. будет наблюдаться вариация показаний прибора. Вариация В определяется как абсолютная разность между показаниями образцового прибора, соответствующими одной и той же числовой отметке шкалы поверяемого прибора, полученными при возрастании Xo1 и убывании Xo2 измеряемой величины:

В=|ХО1О2|

Вариация показаний определяется для каждой числовой отметки шкалы. Ни одно из полученных значений не должно превышать предела допустимого значения.

Физические явления, обусловливавшие невозвращение стрелки прибора с нулевой отметки на шкале, в основном те же, что и при возникновении вариации показаний.

Для приборов класса точности 0,5, с подвижной частью на растяжках, с углом шкалы не более 120°, миниатюрных и малогабаритных, а также устойчивых к механическим воздействиям предел допустимого значения невозвращения указателя определяется по формуле

где ун - предел допустимого значения невозвращения стрелки, мм; к - число, обозначающее класс точности прибора; L - длина шкалы, мм.

Для остальных приборов ун не должно превышать половины рассчитанного по формуле (5) значения.

Описание лабораторного стенда

Рисунок 1 - Лабораторный стенд

  1. калибруемый вольтметр

  2. образцовый вольтметр

  3. ручка регулирования «Грубо»

  4. ручка регулирования «Точно»

  5. кнопка включения стенда

Программа работы

  1. Провести метрологическую калибровку вольтметра;

  2. Рассчитать погрешности вольтметра;

  3. Сравнить реальные значения погрешности с максимально допустимыми и сделать вывод о пригодности вольтметра к применению;

  4. Сделать выводы по работе.

Порядок проведения работы

  1. Записать класс точности калибруемого вольтметра;

  2. Включить питание лабораторного стенда, при помощи переключателя 5 (рисунок 1);

  3. Провести внешний осмотр вольтметра;

  4. Провести опробование вольтметра;

  5. Определить невозвращение стрелки к нулевой отметке по формуле 5;

  6. Установить последовательно значение напряжения по калибруемому вольтметру от нижнего до верхнего пределов измерения с шагом 1 В с помощью ручек 3 «грубо» и 4 «точно» (рисунок 1);

  7. Для каждого установленного значения напряжения записать показания образцового вольтметра в таблицу 1 при увеличении и при уменьшении напряжения.

Таблица 1. Метрологическая калибровка вольтметра

Показания калибруе­мого вольтметра, В

Показания образцового вольтметра, В

Абсолютная погрешность, В

Вариация показаний, В

Относительная погрешность, %

Приведенная погрешность, %

при увели­чении напря­жения

при умень­шении напря­жения

при увели­чении напря­жения

при умень­шении напря­жения

при увели­чении напря­жения

при умень­шении напря­жения

при увели­чении напря­жения

при умень­шении напря­жения

  1. Определить погрешности и вариацию показаний калибруемого вольтметра по формулам 1…4;

  2. Сравнить реальные значения погрешности с максимально допустимыми и сделать вывод о пригодности вольтметра к применению;

  3. Сделать выводы по работе.

Содержание отчета

  1. Титульный лист;

  2. Цель работы;

  3. Класс точности калибруемого вольтметра;

  4. Результаты внешнего осмотра вольтметра;

  5. Результаты опробования вольтметра;

  6. Результаты расчета невозвращения стрелки к нулевой отметке;

  7. Результаты калибровки (таблица 1);

  8. Выводы по работе.