- USD ЦБ 03.12 30.8099 -0.0387
- EUR ЦБ 03.12 41.4824 -0.0244
Краснодар:
|
погода |
ГОСТ 8.146-75
(CT СЭВ 4382-83)
Группа Т88.1*
__________________
* В Указателе "Государственные стандарты" 2003 г.
приводится группа Т88.4. - Примечание .
ГОСУДАРСТВЕННЫЙ СТАНДАРТ СОЮ3А ССР
Государственная система обеспечения единства измерений
МАНОМЕТРЫ ДИФФЕРЕНЦИАЛЬНЫЕ ПОКАЗЫВАЮЩИЕ И САМОПИШУЩИЕ С ИНТЕГРАТОРАМИ ГСП
Методика поверки
State system for ensuring the uniformity of measurements.
Indicating and recording pressure gange with integrators of SSI.
Methods of verification
Дата введения 1976-01-01
ВВЕДЕН В ДЕЙСТВИЕ постановлением Государственного комитета стандартов Совета Министров СССР от 29 января 1975 г. N 234
ПЕРЕИЗДАНИЕ (октябрь 1984 г.) с Изменением N 1, утвержденным в июне 1984 г. (ИУС 9-84).
Настоящий стандарт распространяется на показывающие и самопишущие и выпускаемые в комплекте со вторичными приборами дифференциальные манометры (дифманометры) по ГОСТ 18140-77 с верхними пределами измерений не более 6,3 кгс/см (0,63 МПа) и не менее 10 кгс/м (100 Па), применяемые в системе контроля и управления производственными процессами в качестве дифманометров-расходомеров и дифманометров-перепадомеров.
Стандарт устанавливает методы и средства первичной и периодической поверок дифманометров, а также встроенных в них интеграторов.
Стандарт полностью соответствует CT СЭВ 4382-83.
(Измененная редакция, Изм. N 1).
1. ОПЕРАЦИИ ПОВЕРКИ
1.1. При проведении поверки должны выполняться следующие операции:
внешний осмотр (п.4.1);
опробование (п.4.2);
определение метрологических параметров (п.4.3);
определение скорости перемещения диаграммы (п.4.4);
проверка самопишущего устройства (п.4.5);
определение погрешности интегратора (п.4.6).
2. СРЕДСТВА ПОВЕРКИ
2.1. При проведении поверки должны применяться следующие средства поверки:
грузопоршневой манометр МП-2,5 и МП-6 по ГОСТ 8291-83;
образцовый пружинный манометр MO по ГОСТ 6521-72;
грузопоршневой мановакуумметр МВП-2,5 класса точности 0,05;
пределы измерений -1,0-0-2,5 кгс/см (-0,10-0-0,25 МПа);
автоматический задатчик давления АЗД-2,5 класса точности 0,05;
пределы измерений 0,1-1,0; 0,1-1,6; 0,2-2,5 кгс/см (0,01-0,1; 0,01-0,16; 0,02-0,25 МПа);
жидкостный компенсационный микроманометр с концевыми мерами длины МКМ по ГОСТ 11161-84;
жидкостный компенсационный микроманометр с микрометрическим винтом МКВ по ГОСТ 11161-84;
жидкостный многопредельный микроманометр с наклонной трубкой ММН класса точности 0,6 по ГОСТ 11161-84;
весовой колокольный микроманометр МВК по ГОСТ 11161-84;
секундомер класса 1 по ГОСТ 5072-79.
2.2. Допускается применение находящихся в эксплуатации (приложение 1) средств поверки, прошедших метрологическую аттестацию в органах государственной метрологической службы и удовлетворяющих по точности требованиям п.4.4.2.
3. УСЛОВИЯ ПОВЕРКИ И ПОДГОТОВКА К НЕЙ
3.1. При проведении поверки должны соблюдаться следующие условия и выполняться следующие подготовительные работы.
3.2. Изменение давления должно соответствовать требованиям ГОСТ 18140-77 без перехода за поверяемое значение. Среда, передающая давление, - воздух или нейтральный газ.
3.3. Образцовые пружинные манометры МО, предназначенные для установки с их помощью заданных расчетных перепадов давления, должны быть предварительно поверены при расчетных значениях давления.
3.4. При использовании грузопоршневого манометра МП-6 между ним и поверяемым дифманометром должно быть установлено разделительное устройство, предохраняющее поверяемый прибор от попадания в него масла. Уровень жидкости в разделительном устройстве должен находиться в плоскости торца поршня. Значения высоты столба ртути и воды жидкостных образцовых манометров, соответствующих давлению 1 кгс/см (0,1 МПа) приводятся в приложении 2.
3.5. Допускается проводить поверку дифманометров по условной шкале (диаграмме); по специальным отметкам, нанесенным предприятием-изготовителем на циферблате; допускается проводить поверку самопишущих дифманометров при неподвижной диаграмме.
3.6. Дифманометр перед проведением поверки должен быть выдержан в нерабочем состоянии в соответствии с требованиями ГОСТ 18140-77.
3.7. Герметичность системы, состоящей из соединительных линий и образцовых приборов, проверяется давлением, равным верхнемупределу измерений поверяемого дифманометра.
Система считается герметичной, если после выдержки в течение 3 мин падение давления не превысит 1% от верхнего предела измерений в минуту при рабочем давлении в течение последующих 2 мин.
(Измененная редакция, Изм. N 1).
4. ПРОВЕДЕНИЕ ПОВЕРКИ
4.1. Внешний осмотр
4.1.1. При проведении внешнего осмотра должно быть установлено соответствие дифференциальных манометров следующим требованиям:
приборы не должны иметь повреждений и дефектов, при наличии которых не может быть допущено их применение;
маркировка приборов должна соответствовать требованиям ГОСТ 18140-77.
Примечание. На приборах, выпущенных до введения ГОСТ 18140-72, допускается иная маркировка.
4.2. Опробование
4.2.1. Стрелку (перо) дифманометров, снабженных корректором нуля, перед началом поверки при отсутствии перепада давления устанавливают на нулевую отметку шкалы (нулевую линию диаграмм).
4.2.2. Стрелка (перо) дифманометров, не имеющих корректора нуля, при отсутствии перепада должна устанавливаться на нулевую отметку с отклонением, не превышающим установленного в ГОСТ 18140-77.
4.2.3. Проверка герметичности между плюсовой и минусовой камерами измерительного блока производится до определения основной погрешности. При минусовой камере, сообщенной с атмосферой, в плюсовой камере дифманометра создается избыточное давление, равное предельному номинальному перепаду давления (при сумме абсолютных значений пределов измерений), и выдерживают прибор в течение 10 мин, поддерживая это давление. Отключают прибор от устройства, создающего давление. Прибор считают герметичным, если в течение 15 мин изменение давления при изменении температуры окружающей среды не превышает значений, указанных в таблице.
Таблица
Верхний предел измерения |
|
| |
кгс/см |
кгс/см |
Допускаемое изменение температуры в процессе поверки, °С |
Допускаемое изменение пневматического давления в % от установленного значения |
10(100) |
|
|
|
16(160) |
|
|
45 |
25(250) |
|
0,3 |
|
40(400) |
|
|
25 |
63(630) |
|
|
|
100(1000) |
|
|
15 |
160(1600) |
|
|
|
250(2500) |
|
|
7 |
400(4000) |
|
|
|
630(6300) |
|
|
3 |
1000(10000) |
|
|
|
1600(16000) |
|
0,5 |
1,5 |
2500(25000) |
|
|
|
|
0,4(0,04) |
|
1,0 |
|
0,63(0,063) |
|
|
|
1,00(0,100) |
|
|
|
1,60(0,160) |
|
|
|
2,50(0,250) |
|
0,5 |
|
4,00(0,400) |
|
|
|
6,30(0,630) |
1,0 |
|
Примечания:
1. Изменения температуры и давления должны иметь одинаковые знаки.
2. При изменении температуры менее указанного в таблице допускаемое изменение давления должно быть уменьшено в том же отношении.
4.3. Определение метрологических параметров
4.3.1. Основную погрешность определяют установкой стрелки (пера) дифманометра на поверяемую отметку (отсчетную линию диаграммы), соответствующую номинальному перепаду давления по образцовому прибору, или установкой по образцовому прибору действительного значения перепада давлений и отсчета показаний по шкале (диаграмме) поверяемого прибора.
Примечание. Определение основной погрешности установкой действительного значения перепада давления по образцовому прибору при отсчете показаний по шкале (диаграмме) поверяемого прибора производят только в том случае, когда отсчетное устройство поверяемого дифманометра обеспечивает погрешность отсчитывания не более 1/5 предела допускаемой основной погрешности.
4.3.2. При выборе образцовых средств для определения погрешности показаний поверяемого дифманометра должно соблюдаться следующее условие
, (1)
где и - пределы допускаемой основной погрешности образцового и поверяемого приборов при давлении, соответствующем поверяемой отметке шкалы (отсчетной линии диаграммы), выраженные в одних и тех же единицах;
- коэффициент запаса точности, равный 1/4.
Допускается с разрешения органов Госстандарта СССР применять .
4.3.3. Основную погрешность определяют сравнением действительного перепада давления, соответствующего поверяемой отметке, с показаниями поверяемого прибора.
4.3.4. Расчетные значения перепада давления для дифманометров-расходомеров со шкалой (диаграммой), равномерной по расходу, определяют по формуле
, (2)
где - предельный перепад, давления номинальный;
- верхний предел измерений дифманометра-расходомера;
- показание по шкале (диаграмме).
4.3.4.1. Расчетные значения перепада давления , Па, для дифманометров-уровнемеров определяют по формуле
,
где - показание по шкале (диаграмме) дифманометра-уровнемера, м;
- плотность измеряемой среды, кг/м;
- нормальное ускорение, м/с.
(Введен дополнительно, Изм. N 1).
4.3.5. Определение основной погрешности дифманометров должно производиться не менее чем при пяти значениях перепада давления, равномерно распределенных в диапазоне измерений, в том числе на отметках, соответствующих 30 и 100% предельного перепада давления. Поверку приборов производят вначале при плавно возрастающем, а затем при плавно убывающем перепаде давления.
Примечание. Поверку дифманометров с верхним пределом измерений 6,3 кгс/см (0,63 МПа) допускается производить при перепаде давления 6 кгс/см (0,6 МПа).
4.3.6. Пределы допускаемой основной погрешности дифманометров должны соответствовать ГОСТ 18140-77.
Основная погрешность дифманометра не должна превышать при первичной поверке 0,8 , при периодической поверке - 1 , где - класс точности прибора.
Примечание. Для дифманометров-расходомеров при первичной поверке при значениях расхода 30 и 40% (или близких к ним) допускается основная погрешность, не превышающая .
4.3.7. Вариация показаний, определяемая при каждом поверяемом значении перепада давления, кроме значений, соответствующих нулю и верхнему пределу измерений, не должна превышать значений, установленных ГОСТ 18140-77. Вариацию определяют в соответствии с требованиями ГОСТ 18140-77.
Невозвращение после поверки стрелки (пера) к нулевой отметке (отсчетной линии) не должно превышать значений, установленных ГОСТ 18140-77.
4.3.8. У многострелочных (многозаписных) дифманометров погрешность и вариацию определяют отдельно по каждой стрелке (перу) прибора.
4.3.9. При поверке дифманометра установкой стрелки (пера) на поверяемую отметку (отсчетную линию диаграммы), соответствующую номинальному значению перепада давления по образцовому прибору для дифманометров-расходомеров с именованной и условной шкалой (диаграммой) при линейной зависимости между расходом и показаниями дифманометров-расходомеров с неравномерными шкалами (диаграммами) и дифманометров-перепадомеров основную погрешность в % определяют в соответствии с требованиями ГОСТ 18140-77.
Примечание. В справочном приложении 3 приводится упрощенная формула для определения допускаемых отклонений от расчетного значения перепада давления.
4.3.10. При поверке дифманометра установкой по образцовому прибору действительного значения перепада давления и отсчета показаний по шкале (диаграмме) поверяемого прибора основную погрешность в % определяют по формулам
для дифманометров-расходомеров с именованными шкалами
; (3)
для дифманометров-перепадомеров с именованными шкалами
; (4)
для дифманометров-расходомеров и дифманометров-перепадомеров с условной (100%-й) шкалой
, (5)
где - поверяемая отметка шкалы (диаграммы).
4.4. Определение погрешности скорости перемещения диаграммы
4.4.1. Погрешность скорости перемещения диаграммы с приводом от часового механизма и с пневматическим приводом определяют по секундомеру, с приводом от синхронного двигателя - по электрическим часам, работающим синхронно с частотой тока в сети.
4.4.2. Погрешность скорости перемещения диаграмм не должна превышать значений, указанных в ГОСТ 18140-77.
4.4.3. Погрешность определяют следующим образом. Включают привод диаграммы. В момент нахождения пера на линии времени наносят пером отметку на диаграмму и отсчитывают показания секундомера (электрических часов). В момент нахождения пера на линии времени, отстоящей от первой отмеченной линии на интервал времени , наносят пером вторую отметку и второй раз отсчитывают показания секундомера (электрических часов). На дисковой диаграмме отметки наносят на отсчетной линии верхнего предела измерений. Расчетный интервал времени в часах принимают равным
, (6)
где - интервал времени, равный 0,2 цены деления линии времени диаграммного диска или диаграммной ленты, ч;
- предел допускаемой погрешности скорости перемещения диаграммы, %.
4.4.4. Погрешность скорости перемещения диаграммной ленты или диска определяют по формуле
, (7)
где - интервал времени по секундомеру (электрическим часам).
4.5. Проверка самопищущего устройства
4.5.1. Для проверки самопишущего устройства в приборе отключают от привода механизм для передвижения диаграммы.
4.5.2. Линии записи на неподвижной диаграмме при изменении перепада давления от нуля до верхнего предела измерений и от верхнего предела измерений до нуля должны совпадать с отсчетными линиями времени диаграммы, отклонение от отсчетной линии не должно превышать значений, установленных ГOCT 18140-77. Правильность линии записи проверяют измерением расстояния между каждым концом линии, прочерченной пером при изменении перепада давления и нанесенной на диаграмму линией времени.
4.5.3. Линии записи, нанесенные неподвижным пером по движущейся диаграмме, должны совпадать с отсчетной линией измеряемой величины (расход, перепад давления), отклонение записи от отсчетной линии не должно превышать значений, установленных ГОСТ 18140-77.
Совпадение линий записи на движущейся диаграмме проверяют при трех значениях измеряемой величины, соответствующих нулевому значению, половине верхнего предела измерения и верхнему пределу измерений или близким к ним, передвигая диаграмму при каждом значении измеряемой величины; при этом дисковая диаграмма должна совершать полный оборот, а ленточная - перемещаться не менее чем на 200 мм.
4.5.4. Линии записи должны быть сплошными, толщиной не более 0,6 мм.
4.5.5. У многозаписных дифманометров с одним полем для записи показаний перья должны отстоять друг от друга на расстоянии, установленном ГОСТ 18140-77.
4.6. Определение погрешности показаний интегратора
4.6.1. Показания интегратора при его поверке отсчитывают по отсчетному устройству и дополнительному устройству для отсчета дробных значений. Погрешность должна соответствовать требованиям ГОСТ 18140-77.
4.6.2. При поверке интегратора стрелка (перо) устанавливается в соответствии с требованиями ГОСТ 18140-77. При поверке интеграторов с приводом от синхронного двигателя применяются электросекундомеры, работающие с частотой тока в сети; при поверке интеграторов с приводом от часового или пневматического механизма - секундомеры.
При поверке интеграторов дискретного действия после установки стрелки (пера) на поверяемую отметку механизм интегратора устанавливают в положение начала цикла интегрирования.
Допускается показания интегратора отсчитывать без его выключения.
4.6.3. Минимальную продолжительность работы интегратора при поверке в минутах, обусловленную погрешность отсчета, при поверяемом значении расхода вычисляют по формуле
, (8)
где - погрешность отсчитывания по дополнительному устройству, равная цене деления, если длина деления не менее 1 мм, и 0,5 цены деления, если длина деления равна или более 1 мм;
- расчетная разность показаний интегратора за час, соответствующая верхнему пределу измерений и установленная для данного типа интеграторов.
4.6.4. Требуемая минимальная продолжительность работы интегратора, обусловленная его конструктивными особенностями, выбирается кратной периоду минимально необходимого числа оборотов элементов кинематической цепи механизма интегратора, при котором происходит компенсация кинематических погрешностей.
4.6.5. Погрешность интегратора определяют при значениях расхода, составляющих 30, 50, 75 и 100% верхнего предела измерений или близких к ним при возрастающем и убывающем значениях перепада. Основная погрешность интеграторов должна соответствовать ГОСТ 18140-77.
4.6.6. При определении действительной разности показаний, соответствующей заданной продолжительности интегратора при поверяемом значении расхода, погрешность показаний интегратора вычисляют по формуле
; (9)
При определении действительной продолжительности работы интегратора, необходимой для достижения расчетной разности, соответствующей поверяемому значению расхода, погрешность показаний интегратор вычисляют по формуле
, (10)
где - расчетная разность показаний интегратора за заданную продолжительность времени работы;
- заданная продолжительность работы интегратора (время поверки), мин;
- действительная продолжительность работы интегратора, мин.
Расчетную разность показаний интегратора вычисляют по формуле
. (11)
5. ОФОРМЛЕНИЕ РЕЗУЛЬТАТОВ ПОВЕРКИ
5.1. При положительных результатах первичной поверки в паспорте (или документе, его заменяющем) производится запись о годности дифманометра к применению с указанием даты поверки, которая заверяется в установленном порядке.
5.2. При положительных результатах периодической поверки в эксплуатационном паспорте (или документе, его заменяющем) производят запись о годности дифманометра с указанием даты поверки, заверяют ее подписью поверителя и оттиском поверительного клейма.
5.3. Запись в эксплуатационном паспорте (или документе, его заменяющем) результатов ведомственной поверки заверяют в порядке, установленном органом ведомственной метрологической службы.
5.4. Дифманометры, не удовлетворяющие требованиям настоящего стандарта, не допускаются к выпуску из производства и ремонта и к применению.
Примечание. В справочном приложении 4 приводятся формы протокола для записи результатов поверки.
ПРИЛОЖЕНИЕ 1
СРЕДСТВА ПОВЕРКИ, НАХОДЯЩИЕСЯ В ЭКСПЛУАТАЦИИ И ДОПУСКАЕМЫЕ К ПРИМЕНЕНИЮ
Жидкостный манометр с оптическим отсчетом и ртутным заполнением типа ОМО-1, классы точности 0,15; 0,30; пределы измерений 0-800 мм рт.ст. (0-0,107 МПа);
переносные приборы для поверки дифманометров-расходомеров: ППР-1, класс точности 0,3, пределы измерений избыточного давления 0,1000 мм вод.ст. (0-0,01 МПа) 0-1000 мм рт.ст. (0-0,135 МПа); ППР-2М, класс точности 0,3, пределы измерений избыточного давления 0-1000 мм вод.ст. (0-01 МПа), 0-1000 мм рт.ст. (0-0,135 МПа), вакуумметрического давления 760 мм рт.ст. (0,102 МПа);
контрольный ртутный манометр с дистанционным отсчетом МКД, классы точности 0,1; 0,2, пределы измерений 0-1,0; 0-1,6 кгс/см (0-0,1; 0-0,16 МПа);
автоматический контрольный задатчик АКЗ-1, класс точности 0,1, пределы измерений 0,1-1,6 кгс/см (0,01-0,16 МПа);
контрольный цифровой манометр КМЦ-1,6, класс точности 0,1, пределы измерений 0-1,6 кгс/см (0-0,16 МПа);
грузосильфонный дифференциально-трансформаторный манометр контрольный МКБ, классы точности 0,10; 0,16; 0,25; пределы измерений от 0-0,25 до 0-6,3 кгс/см (от 0-0,025 до 0-0,63 МПа) по ряду R5 ГОСТ 8032-84;
электромеханический прецизионный манометр ПМ, классы точности 0,10, 0,16; 0,25, пределы измерений 0-1,0; 0,2-1,0 кгс/см (0-0,1; 0,02-0,10 МПа);
электрический секундомер типа П-30М;
электрические часы, работающие синхронно с частотой тока питания.
ПРИЛОЖЕНИЕ 2
Справочное
ЗНАЧЕНИЕ ВЫСОТЫ СТОЛБА РТУТИ И ВОДЫ ЖИДКОСТНЫХ ОБРАЗЦОВЫХ
МАНОМЕТРОВ, СООТВЕТСТВУЮЩЕЙ ДАВЛЕНИЮ 1 кгс/см (0,1 МПа)
При использовании жидкостных образцовых манометров давление, равное 1 кгс/см (0,1 МПа), создается столбом ртути высотой 738,2 мм или столбом воды высотой 10018 мм при нормальном ускорении свободного падения тела, равном 9,8066 м/с, при нормальной температуре 20 °С.
Указанным значением высоты столба ртути или воды допускается пользоваться в диапазонах ускорений свободного падения тел 9,7970-9,8255 м/с для приборов классов точности 0,5 и 1,0 при температуре 20±2 °С, для приборов классов точности 1,5 и 2,5 при температуре 20±5 °С.
При ускорении свободного падения тела, отличном от нормального, значение высоты столба ртути или воды определяют из равенства
,
где - высота столба жидкости при , мм;
- расчетное значение высоты столба жидкости, мм;
- нормальное ускорение свободного падения тела, м/с;
- ускорение свободного падения тела в месте поверки.
ПРИЛОЖЕНИЕ 3
Справочное
ОПРЕДЕЛЕНИЕ ДОПУСТИМЫХ ОТКЛОНЕНИЙ ОТ РАСЧЕТНЫХ ЗНАЧЕНИЙ ПЕРЕПАДА ДАВЛЕНИЯ ДЛЯ ДИФМАНОМЕТРОВ-РАСХОДОМЕРОВ ПРИ ЛИНЕЙНОЙ ЗАВИСИМОСТИ МЕЖДУ РАСХОДОМ И ПОКАЗАНИЯМИ
Допустимые отклонения от расчетного значения перепада давления определяются по формуле
.
ПРИЛОЖЕНИЕ 4
Справочное
ПРОТОКОЛ N _______
"____" _________19____г.
поверки |
| ||||||||
|
(наименование дифманометра) | ||||||||
|
| ||||||||
принадлежащего |
| ||||||||
|
(наименование предприятия, организации, учреждения) | ||||||||
|
| ||||||||
Тип |
|
N |
| ||||||
|
|
|
| ||||||
Пределы измерений |
|
Класс точности |
| ||||||
|
|
|
| ||||||
Образцовые приборы |
| ||||||||
|
(тип, N____, верхний предел измерений) | ||||||||
|
| ||||||||
(класс точности) |
Таблица 1
Определение основной погрешности и вариации
Номинальное значение измеряемой величины |
Расчетное значение перепада давления |
Действительное значение перепада давления или показание по шкале поверяемого прибора |
Погрешность поверяемого прибора в процентах от нормирующего значения или в единицах измерения |
Вариация, % показаний | ||
|
|
Прямой ход |
Обратный ход |
Прямой ход |
Обратный ход |
|
|
|
|
|
|
|
|
Предел допускаемой основной |
|
Наибольшая погрешность | |||
погрешности |
|
|
дифманометра |
| |
|
|
|
|
| |
Невозвращение стрелки (пера) | |||||
к нулю |
|
|
Таблица 2
Определение погрешности скорости перемещения диаграммы
Расчетный промежуток времени по диаграмме , ч |
Промежуток времени по секундомеру (электрическим часам) , ч |
Погрешность скорости перемещения диаграммы , % |
|
|
|
Предел допускаемой погрешности скорости
перемещения диаграммы ____________________________________________________
Таблица 3
Определение погрешности интегратора
Поверяемое значение расхода |
Первый отсчет |
Второй отечет |
Погрешность | ||
|
по счетчику |
по секундомеру |
по счетчику |
по секундомеру |
|
Предел допускаемой основной
|
|
|
Наибольшая погрешность |
| |||
|
|
|
|
| |||
Дифманометр годен, забракован (указать причины) |
| ||||||
|
| ||||||
| |||||||
Подпись лица, выполнявшего поверку |
|
Текст документа сверен по:
официальное издание
М.: Издательство стандартов, 1985