Добавил:
Upload Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:
Лекции по метрологии.pdf
Скачиваний:
177
Добавлен:
02.06.2015
Размер:
2.48 Mб
Скачать

Оценка неопределенности в измерениях

Новая концепция описания результатов измерений отражена в документе «Руководствоповыражениюнеопределенности измерения».

Неопределенность — параметр, связанный с результатом измерения, который характеризует рассеяние (разброс) значений, которые могут быть достаточно обоснованно приписаныизмеряемойвеличине.

Стандартная неопределенность (u) — неопределенность результата измерения, выраженная как стандартное отклонение.

Оценка неопределенности по типу А (uA) — метод оценивания неопределенно-

сти путем статистического анализа рядов наблюдений.

Оценка неопределенности по типу В (uB) — метод оценивания неопределенно-

сти иным способом, чем статистический анализ рядов наблюдений.

Если Qи = f(Q1,Q2,…,QN) и все QN независимы, то вводится понятие суммарной стандартной неопределенности:

Суммарная стандартная неопределенность

положительный квадратныйкореньиззначения

uc2 = N Qи ui2, i=1 Qi

uc представляет собой

где каждаяui2 - стандартная неопределенность, оцененная по типу А или В.

Расширенная неопределенность (U) — величина, определяющая интервал, в пределах которого находится большая часть распределения значений, которые с достаточным основанием могли быть приписаны измеряемой величине.

Коэффициент охвата (k) — числовой коэффициент, используемый как множитель суммарной стандартной неопределенности для получения расширенной неопределенности:

U = k uc,

тогдарезультатизмерениявыражаетсякак

 

Q = q ± U.

(1)

Оценканеопределенности потипуА:

n

(Qi Q)2

uA = s(Q) =

i=1

,

n(n 1)

 

 

Оценканеопределенности потипу B:

uB = b2 b1

2 3

Информационная теория измерений

Результат измерения дает количественную характеристику интересующей физической величины с некоторой остаточной неопределенностью. Вместо исходной неопределенности, обусловленной природой измеряемой величины, получается заведомо меньшая неопределенность, зависящая от несовершенства измерительного эксперимента. Разность этих двух неопределенностей соответствует количеству измерительнойинформации.

Рассмотрим дискретный источник информации, который в каждый момент времени случайным образом может принять одно из конечного множества возможныхсостояний х1, х2,..., хn свероятностями р1, р2,..., рn, причем iN=1 pi =1 .

Меру неопределенности состояния источника можно рассматривать как меру количества информации, получаемой при полном устранении неопределенности относительно состоянияисточника. Мерадолжнаудовлетворять условиям:

необходимость монотонного возрастания неопределенности с увеличением возможности выбора, тоестьчиславозможныхсостояний N

условиеаддитивности:

f(NM) = f(N) + f(M).

(2)

Соотношение (2) выполняется, если в качестве меры неопределенности источникасравновероятными состояниямипринятьлогарифмчисласостояний:

H(U) = log N.

(2)

Энтропия дискретногоисточникаинформации (Шеннон):

N

 

H (U ) = −pi log pi

(4)

i=1

 

Для непрерывного источника информации неопределенность характеризуется

значениемэнтропии

+∞

 

 

H (X ) = − p(x)log p(x)dx,

(5)

−∞

Энтропия обращается в нуль, когда одно из состояний источника (системы) достоверно (вероятность равна единице), а другие — невозможны (вероятности равны нулю).

Энтропия равномерного распределения,

когда р(х) = 1/d = const в полосе

шириной d = X2 Х1:

X

1

 

 

1

 

 

H (X ) = − 2

ln

 

dx = ln d,

 

 

 

 

 

X1

d

d

 

 

 

 

 

 

Для случайной дискретной величины, которая имеет n равновероятных

значений:

N

1 log

1

 

 

H (U ) = −pi log pi = −n

= log n.

 

i=1

n

n

 

Единицы измерения энтропии:

1 дит = 2,3 нат = 3,3 бит; 1 бит = 0,69 нат = 0,3 дит.

Количество передаваемой по каналу информации при наличии помех I равно энтропии передаваемого сигнала за вычетом энтропии шума, то есть равно убылиэнтропии:

I = H (X ) H (),

(6)

где H(X) — энтропия передаваемого сообщения (исходная энтропия измеряемой величины X), определяемая лишь ее законом распределения; H(Δ) — энтропия шума (случайнойпогрешности измерения, илиусловная энтропия).

Процесс измерений сточкизрения информационной теории:

1.Пусть в результате однократного измерения данного значения случайной измеряемойвеличины Q полученопоказание Qи .

2.СИ обладает случайной погрешностью, поэтому нельзя утверждать, что дей-

ствительное значение измеряемой величины в точности равно Qи . Можно лишьутверждать, чтоонолежитвполосе Qи ± .

3.Незнание точного значения измеряемой величины сохраняется и после

получения Qи, но теперь оно характеризуется не полной или исходной энтропией H(Q), алишьэнтропиейразбросадействительногозначениявокруг

полученного отсчета Qи, обозначаемой как H(Q/Qи) и называемой условной энтропией.

Доизмерения:

p(Q) =

 

1

.

Q2

 

 

 

Q1

Послеизмерения: p(Q) = 21.

Результат измерения состоит лишь в том, что до измерения область неопределенности простиралась от Q1 до Q2 и характеризовалась плотностью вероятности p(Q) = l/(Q2 Q1), апосле измеренияонасократиласьдовеличины 2 и характеризуетсянамногобольшейплотностью вероятности p(Q) = 1/(2Δ).

Количество информации:

 

 

 

I = H(Q)-H(Q/Qи).

 

(7)

Q2

 

1

 

 

1

 

 

 

 

H (Q) = −

 

 

 

 

 

 

 

 

 

log

 

 

dQ = log(Q2

Q1).

(8)

Q Q

Q Q

Q1

2

 

 

1

 

2 1

 

 

 

 

H (Q / Q ) = −Q4

1

log

1

dQ = log 2∆ = log(Q Q ).

(9)

 

2

 

и

Q

 

 

 

2

 

4 3

 

 

 

 

 

 

 

 

 

 

 

 

3

 

 

 

 

 

 

 

 

2

 

 

I = H (Q) H (Q / Qи) = −log

.

(10)

 

 

 

 

 

 

 

 

 

 

 

Q2 Q1

 

 

Применение теории информации к измерениям по шкалам порядка

Измерения по шкалампорядка – это «не совсем измерения», это оценка. Недостаток таких шкалотсутствие уверенности в том, что интервалы между выбранными реперами являются равновеликими (например, шкала Бофорта для определения силы ветра).

В случае измерения по шкале порядка весь диапазон возможных значений измеряемой величины разбивается реперными точками на ряд интервалов. Область неопределенности до измерения простирается на все интервалы шкалы порядка (от «штиля» до «урагана» по шкале Бофорта). В результате измерения областьнеопределенности сужаетсядодлиныуказанногоинтервала.

Такимобразом, с точки зрения теории информации в процессе измерения конкретный интервал выбирается из целого ряда возможных интервалов. То есть неопределенность исходной ситуации характеризуется безусловной энтропией:

H(Q) = log n,

но и получаемая в результате измерения информация, соответствующая устранению этой неопределенности, равна

I = log n

(выбирается всегда один интервал). Поэтому количество информации,

получаемой в результате измерения по минералогической шкале твердости равно I = log 11 = 3,5 бит = 1,04 дит. Приизмерении пошкалеБофортаколичество информацииравно I= log 13 = 3,7 бит = 1,12 дит.

В самом общем случае измерение – это сравнение измеряемой величины с тем илиинымобразомпостроеннойшкалойвозможных значенийэтойвеличины, ав результате измерения осуществляется выбор одного интервала из всего множестваинтерваловэтойшкалы.

Основная особенность измерения состоит в том, что точное значение измеряемой величины никогда не может быть определено, а может быть указан только более или менее узкий интервал возможных значений измеряемой величины.

Число различимых ступеней n измеряемой величины зависит от класса точности средстваизмерений:

Если стрелка остановилась на делении 9, то значение измеряемой величины может находиться в пределах от 8 до 10. Число n различимых значений в данном случаесоставляет:

n =

1

 

=

1

=10.

2 | класс точности|

2 0,05

 

 

 

Количествополученнойинформациипослеизмеренияпотакомуприбору

I = log 10.