Добавил:
Upload Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:
1864.doc
Скачиваний:
81
Добавлен:
06.09.2019
Размер:
1.14 Mб
Скачать

5.1.5. Основные и дополнительные погрешности

Измерения могут осуществляться в нормальных и в рабочих условиях работы средства измерений. Деление условий работы средства измерений на нормальные и рабочие условно. Оно производится в зависимости от диапазона изменения влияющих величин.

Влияющая физическая величинавеличина, оказывающая влияние на размер измеряемой величины и (или) результат измерений.

Нормальные условия измерений – это условия, характеризуемые совокупностью значений или областей значений влияющих величин, при которых изменением результата измерений пренебрегают вследствие малости.

Нормальное значение влияющей величины – значение величины, установленное в качестве номинального.

Нормальная область значений влияющей величины – область значений влияющей величины, в пределах которой изменением результата измерений под ее воздействием можно пренебречь в соответствии с установленными нормами точности.

На практике считают, что в нормальных условиях влияющие величины изменяются в узком диапазоне значений. Например, температура изменяется в пределах (205) оС, давление (100,15) 104 Па, относительная влажность (805) % и т.д.

Основной погрешностью средства измерений называют погрешность средства измерений, применяемого в нормальных условиях.

Рабочие условия измерений – это условия, при которых значения влияющих величин находятся в пределах рабочих областей.

Рабочая область значений влияющих величин – область значений влияющей величины, в пределах которой нормируют дополнительную погрешность или изменение показаний средства измерений.

Обычно в рабочих условиях влияющие величины изменяются в широком диапазоне значений. Например, температура может изменяться от – 60 до + 60 оС, давление от 10 до 106 Па, относительная влажность от 40 до 95 % и т. д. Это приводит к появлению погрешностей значительно больших, чем в нормальных условиях.

Дополнительная погрешность средства измеренийэто составляющая погрешности средства измерений, возникающая дополнительно к основной погрешности вследствие отклонения какой-либо влияющих величин от нормального ее значения или вследствие ее выхода за пределы нормальной области значений.

Деление погрешностей на основную и дополнительную устанавливается технической документацией на каждое средство измерений.

Погрешности измерения и средства измерений в реальных условиях складываются из основной и дополнительной погрешностей.

5.1.6. Статические и динамические погрешности средств измерений

Статическая погрешность – это погрешность средства измерений, применяемого при измерении физической величины, принимаемой за неизменную.

Примером статической погрешности служит погрешность средства измерений, возникающая при измерении значения постоянного напряжения или значения частоты стабильного генератора частоты.

Динамическая погрешность – погрешность средства измерений, возникающая при измерении изменяющейся (в процессе измерения) физической величины.

Динамическая погрешность зависит как от инерционных свойств средства измерений, так и от характера изменения измеряемой величины во времени.

Например, если время установления переходных процессов в средстве измерений больше, чем интервал изменения измеряемой величины, то возникает динамическая погрешность, обусловленная инерционными свойствами средства измерений. Динамическая погрешность также возникает при измерении непрогретыми средствами измерений или средствами измерений с термопреобразователями и др.

ЛЕКЦИЯ 6

ПРЕДСТАВЛЕНИЕ И ОБРАБОТКА

РЕЗУЛЬТАТОВ ИЗМЕРЕНИЙ

6.1. Представление результата измерений

Результат измерения имеет ценность лишь тогда, когда можно оценить его интервал неопределенности, т.е. степень достоверности.

Поэтому согласно ГОСТ 8.011-84 «Показатели точности измерений и формы представления результатов измерений» сообщение о любом результате должно обязательно сопровождаться указанием его погрешности.

Погрешность результата прямого однократного измерения зависит от многих факторов, но в первую очередь она определяется погрешностью используемых средств измерений. Поэтому в первом приближении погрешность результата измерения можно принять равной погрешности, которой в данной точке диапазона измерений характеризуется средство измерений.

Погрешность средства измерений изменяется в диапазоне измерений. Поэтому в каждом случае, для каждого измерения необходимо произвести вычисления погрешности результата измерений, используя формулы нормирования погрешности соответствующего средства измерений. Вычисляться должны как абсолютная, так и относительная погрешности результата измерений. Абсолютная погрешность необходима для округления результата и его правильной записи, а относительная погрешность необходима для однозначной сравнительной характеристики точности измерения.

Для различных характеристик нормирования погрешностей средств измерения эти вычисления производятся по-разному, поэтому рассмотрим три характерных случая:

1. Класс точности прибора указан в виде одного числа s, заключенного в кружок (случай, когда аддитивная абсолютная погрешность а = 0, а мультипликативная абсолютная погрешность м  0). В этом случае относительная погрешность результата измерений (в процентах) будет равна классу точности и её рассчитывать не нужно, т.е.

отн(х) = s,

а абсолютная его погрешность

.

2. Класс точности прибора указан числом 0 (без кружочка) (случай, когда аддитивная абсолютная погрешность а  0, а мультипликативная абсолютная погрешность м = 0). Тогда абсолютная погрешность результата измерения будет

,

где Хк – предел измерений, на котором получен результат измерения.

Относительная погрешность измерения (в процентах) находится по формуле

.

В этом случае при измерении кроме отчета измеряемой величины х, обязательно должен быть зафиксирован и предел измерений Хк, иначе впоследствии нельзя будет вычислить погрешность результата.

3. Класс точности прибора указан двумя числами в виде c/d (случай, когда аддитивная и мультипликативная абсолютные погрешности соизмеримы, т.е. ам). В этом случае относительная погрешность результата измерений (в процентах) вычисляется по двучленной формуле

,

где Хк – предел измерения; х – значение измеренной величины. Затем по найденной относительной погрешности отн.(х) находят абсолютную погрешность результата измерений

.

После проведения вычислений погрешности результата измерений производится запись:

Измерение произведено с относительной погрешностью отн.(х) = … %. Измеренное значение, например, напряжение, х = (Y  ) В или х = Y В    В .

Однако более наглядно указать пределы интервала неопределенности измеренной величины в виде:

х = (Y) В : (Y+ или (Y) В x (Y+)В.

Соседние файлы в предмете [НЕСОРТИРОВАННОЕ]