Добавил:
Upload Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:

OTIP

.pdf
Скачиваний:
31
Добавлен:
10.02.2015
Размер:
2.36 Mб
Скачать

При

равномерном

распределении

случайная величина X с одинаковой

p(x)

 

 

 

 

вероятностью

может

принимать

любое

 

2

 

 

значение из интервала [m a; m + a] (рис. 6.5).

 

 

д

 

 

 

 

Плотность

 

 

вероятности

равномерного

1/(2a)

 

 

 

 

 

 

 

 

 

 

распределения имеет вид

 

 

 

 

 

Pд 100%

 

 

 

 

 

x

 

 

1

 

 

 

 

 

 

 

 

 

 

 

 

при x [m a; m + a];

(6.4)

0

m-a

m

 

 

m+ a

p(x) =

2a

 

m+

 

 

при x [m a; m + a],

 

 

m-

д

 

д

 

0

 

Рис. 6.5. Равномерный закон

где m – центр распределения, соответствую-

 

распределения

щий медиане и 50%-ной квантили.

 

 

 

 

 

 

 

 

Установим

связь

между доверительной

вероятностью Pд и доверительным интервалом

dд = 2

д . Для этого запишем

выражение

для

вероятности попадания

 

случайной величины X

в

интервал

[m ; m +

],

где

– текущее значение

 

половины

интервала

(

< a). По

определению вероятности имеем

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

m+

 

 

 

 

 

 

 

 

P{x [m

 

; m +

 

]} =

p(x)dx .

 

 

(6.5)

 

 

 

 

 

 

 

 

 

 

 

m

 

 

 

 

 

Функцию плотности вероятности (6.4) подставим в (6.5) и получим

 

 

 

 

 

m+

1

 

 

1

 

 

 

 

 

 

 

 

 

 

P =

 

 

dx

=

 

 

2 =

 

.

 

 

 

 

 

 

 

2a

 

2a

a

 

 

 

 

 

 

m

 

 

 

 

 

 

 

 

 

 

Согласно рис. 6.5 доверительная вероятность равна

 

 

 

 

 

 

 

 

 

Pд =

д

 

a .

 

 

 

 

 

 

Отсюда найдем доверительный интервал

 

 

 

 

 

 

 

 

 

 

 

 

 

dд = 2 д = 2Pд a .

 

 

 

 

(6.6)

Доверительный интервал линейно зависит от доверительной вероятности Pд. При Pд =1 доверительный интервал равен dд = 2a . Как следует из формулы (6.6) на полученный интервал dд не влияет положение центра распределения m.

Плотность распределения закона Симпсона (рис. 6.6) можно представить в виде

 

 

p(x)

2

д

 

 

 

 

 

 

 

1/a

 

 

 

 

 

Pд 100%

 

x

 

 

 

 

 

-a -

д

0

 

д

a

Рис. 6.6. Закон распределения

 

 

Симпсона

 

 

 

(x + a) a2

при a x < 0;

p(x) =

(x + a) a2

при 0 < x a; (6.7)

 

 

 

 

 

 

 

 

0

при

 

x

 

> a.

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

Положение центра распределения m не влияет на доверительный интервал dд , поэтому

принято m = 0.

Находим связь между доверительной вероятностью Pд и доверительным значением

71

погрешности д .

По определению вероят-

ности попадания случайной величины X в интервал [

; ], где a запишем

 

 

 

 

 

P{x [;

]} = p(x)dx .

 

 

 

 

 

 

 

 

 

 

 

 

(6.8)

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

После подстановки (6.7) подставим в (6.8) получим

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

0 x + a

 

 

 

x + a

 

 

 

 

 

x2

 

 

x

 

0

 

 

 

 

x2

 

 

x

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

P =

 

2 dx

+

 

 

 

 

2

 

 

 

 

 

 

2

 

+

 

 

 

 

 

 

 

2

+

 

=

a

 

a

 

dx =

2a

 

 

 

 

 

 

 

 

 

+

2a

 

 

 

 

 

 

 

0

 

 

 

 

 

 

 

 

 

 

 

a

 

 

 

 

 

 

 

a

 

0

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

= −

 

2

 

+

 

 

2

 

+

 

 

=

 

 

 

2

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

.

 

 

 

 

 

 

 

 

 

 

 

2a2

a

2a2

 

a

 

 

 

 

 

 

 

 

 

 

Итак,

 

 

 

 

 

 

 

 

 

 

 

 

a

 

 

a

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

P =

 

д

 

 

 

 

д

 

или P =

 

d

д

 

 

 

d

д

 

 

 

 

 

 

 

 

 

 

 

 

 

2

 

 

 

 

 

 

 

1

 

 

.

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

д

a

 

 

a

 

 

 

 

 

д

 

 

 

a

 

 

4a

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

Доверительная вероятность Pд

квадратично зависит от доверительного интервала

dд. В частности, при dд = 2a имеем Pд =1.

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

Среднее квадратическое

 

отклонение

 

σ

 

 

 

 

случайной

 

величины. СКО

вычисляется по формуле σ = D . Для определения оценки дисперсии по экспериментальным данным пользуются соотношением (6.3). Следовательно, оценка СКО определяется как

~

1

n

~

2

 

 

σ =

 

(xk mx )

 

,

 

 

 

 

 

n 1 k =1

 

 

~

 

где n – объем выборки, xk – элементы выборки;

 

– оценка математического

mx

ожидания (координата центра распределения).

Основным достоинством оценки разброса случайных величин средним квадратическим значением σ является возможность определения дисперсии суммы статистически независимых величин как

D

n

или σ2

n

σ2

= D

=

Σ

i

Σ

i=1

i

 

i=1

 

 

независимо от разнообразия законов распределения каждой из суммируемых величин.

Таким образом, для того чтобы отдельные составляющие погрешности измерительного прибора можно было суммировать расчетным путем, они должны быть предварительно представлены своими средними квадратическими значениями σ, а не «предельными» max или доверительными д значениями.

При этом появляется возможность расчетным путем не только складывать любое число составляющих погрешности, что необходимо при анализе точности сложных измерительных приборов, но и достаточно точно вычитать погрешности,

72

что необходимо при синтезе сложных приборов с заданной результирующей погрешностью. Действительно, если

σΣ = σ12 + σ22 ,

то

σ2 = σΣ2 − σ12 .

Однако это правомерно только для независимых случайных величин. Суммируемые или вычитаемые составляющие погрешности могут быть взаимно коррелированными. В этом случае приведенные соотношения заметно усложняются, что будет более подробно рассмотрено в п. 8.1.

6.3. Вероятностные характеристики скалярных первичных погрешностей и результатов их действия на показания измерительных приборов

Ранее при расчете погрешностей показаний измерительных приборов мы учитывали только детерминированные первичные погрешности. Теперь рассмотрим примеры вычисления погрешностей приборов в зависимости от первичных скалярных погрешностей, заданных своими вероятностными характеристиками. К скалярным первичным погрешностям относятся такие погрешности, которые заданы только величиной (без указания направления). В тех случаях, когда первичная погрешность является функцией неслучайного параметра (времени, размера и др.), значение функции при фиксированном значении аргумента рассматривается как скалярная погрешность.

Пример 6.2. Двойной синусный механизм.

Схема измерительной цепи с рычажной передачей представлена на рис. 6.7. Звенья 2 и 3 жестко связаны между собой.

В рычажной передаче, преобразующей прямолинейное движение также в прямолинейное, но иначе направленное, размеры плеч рычагов от оси шарнира до

центров сфер

 

q2 = q3 = 12 мм; диапазон

измерения

составляет

0 x 6

мм;

первичные

 

погрешности заданы

доверительными

отклонениями

 

д(

q2 ) =

д( q3) = 0,012 мм при доверительной вероятности

Pд = 0,9973

и нормальном

законе распределения с математическим ожиданием

M (

q2 ) =

M (

q3 )

= 0 и

дисперсией

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

(

2 ) =

(

1

2

1

0,012

 

2

 

2

 

 

 

 

 

 

 

 

 

 

 

 

 

 

3 )D= q

д D= q

 

= 0,004

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

3

 

3

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

мм2.

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

4

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

α 3

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

x

 

 

 

 

 

 

2

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

α

 

 

 

 

 

 

 

 

 

 

 

73

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

1

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

0

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

x

Рис. 6.7. Схема измерительной цепи двойного синусного механизма с рычажной передачей: 0 – корпус прибора; 1 – измерительный стержень; 2 – ведущее звено рычага; 3 – ведомое звено рычага; 4 – выходное звено

Требуется вычислить погрешность показаний прибора, обусловленную случайными первичными погрешностями звеньев 2 и 3.

Функциональная связь между входом x и выходом y рассматриваемой измерительной цепи согласно рис. 6.7 выражается равенством

y = q3 x [мм]. q2

Погрешности показаний прибора в зависимости от скалярных первичных

погрешностей

q2 ,

q3 в соответствии с основной формулой линейной теории

точности (5.13) определяются

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

y

 

 

y

q

 

 

q

3

 

x q

 

 

 

 

y

 

 

 

y

 

q

 

 

x

q

 

 

 

q2

=

 

 

2

= −

 

 

 

2

,

 

q3

=

 

 

 

3

=

 

3

.

(6.9)

 

 

 

2

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

q3

 

 

 

q2

 

 

 

 

 

 

q2 q

2 O

 

 

q2

 

 

 

 

 

 

 

 

 

 

q

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

3 O

 

 

 

 

 

 

 

 

Суммарная погрешность показаний прибора равна

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

yqΣ

= yq

 

 

+ yq

 

 

= −

q3

 

x q2 +

x

 

q2 .

 

 

 

 

 

 

 

 

 

 

 

 

2

3

 

q22

q2

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

При заданных значениях параметров найдем максимальную величину

погрешности

yqΣmax

 

в

зависимости

от

максимальных значений

детерминированных первичных погрешностей,

равных

q2 = −0,012 мм,

q3 = +0,012 мм при x = 6 мм

 

 

 

 

 

 

yqΣmax = −

 

12

6 (0,012) +

6

0,012 = 0,012 мм.

(6.10)

 

122

 

 

 

12

 

 

 

Применим операцию математического ожидания к выражениям (6.9) и получим математические ожидания составляющих yq2 , yq3 погрешности

показаний прибора

M [ yq

] = −

q3

x M [ q2 ] = 0 ,

M [ yq ] =

x

M [ q3 ] = 0 .

 

q22

 

2

 

 

3

q2

Дисперсии погрешностей показаний при x = 6 мм

 

 

 

 

q

3

 

2

 

 

 

12

 

 

2

 

 

D[ y

q2

] =

 

x

D[ q

2

] =

 

 

 

6

 

0,0042

= 4 10

 

6 мм2 ,

 

2

 

 

2

 

 

 

 

 

 

 

 

 

12

 

 

 

 

 

 

 

 

 

 

q2

 

 

 

 

 

 

 

 

 

 

74

 

 

 

 

x

 

2

 

 

6

 

2

 

2

 

6

 

2

 

D[

y

q3

] =

 

 

D[

q

3

] =

 

 

0,004

 

= 4 10

 

мм

 

.

 

 

 

 

 

 

 

 

 

 

 

 

12

 

 

 

 

 

 

 

 

 

 

 

 

q2

 

 

 

 

 

 

 

 

 

 

 

 

Найдем дисперсию суммарной погрешности

yqΣ

 

 

 

 

 

D[ yqΣ ] = D[ yq3 ] + D[ yq3 ] = 8 106 мм2 .

Среднее квадратическое отклонение суммарной погрешности yqΣ

σ( yqΣ ) = D[ yqΣ ] = 2 2 103 мм.

Доверительное отклонение д для yqΣ при доверительной вероятности Pд = 0,9973 и нормальном распределении (поскольку слагаемые распределены нормально)

д( yqΣ ) = 3σ(

yqΣ ) = 6 2 103 0,0085 мм.

Следовательно, доверительный

интервал равен

2 д(

yqΣ ) 0,017 мм.

Интервал между наибольшими возможными абсолютными значениями

суммарной

погрешности

yqΣmax в зависимости от детерминированных

первичных погрешностей равен 2

yqΣmax = 0,024 мм согласно (6.10). В интервале

между 0,017

и 0,024 мм

будет

только 0,27% случаев появления yqΣ, этим

процентом, как правило, пренебрегают.

Пример 6.3. Мостовая измерительная электрическая схема.

Для мостовой измерительной электрической схемы (см. пример 5.3, рис. 5.6)

влияние погрешностей сопротивлений

 

 

 

R1 и

R2 на выходное сопротивление

реохорда rx было определено в детерминированных условиях:

r (

R ) = R

 

 

 

 

R2

 

 

 

 

Zшк

 

R [дел. шкалы],

x (R

+ R

)2

 

 

x

1

 

 

Lшк

1

 

 

 

 

1

 

 

2

 

 

 

 

 

 

 

 

r (

R ) =

 

 

R1

 

 

R

 

 

 

Zшк

 

R [дел. шкалы].

(R + R

 

)2

 

 

 

x

2

 

 

 

x

 

 

Lшк

2

 

 

1

2

 

 

 

 

 

 

 

 

 

 

Вероятностные характеристики (в делениях шкалы):

M [ r ( R )]=

Rx R2

 

 

 

 

Zшк

 

M [ R ],

 

)2

 

Lшк

x

 

1

 

(R

+ R

 

 

 

 

1

 

 

 

 

1

2

 

 

 

 

 

 

 

M [ r

(

R

)]=

R1Rx

 

 

 

 

Zшк

M [ R ],

 

)2

 

 

 

x

 

2

 

(R

+ R

2

 

 

 

Lшк

2

 

 

 

 

1

 

 

 

 

 

 

 

 

M [ rΣ ] = M [ rx ( R1 )]+ M [ rx ( R2 )],

75

D[ r (

R )]=

 

R

R

 

 

 

Z

шк

 

 

2

 

 

 

 

x 2

 

 

 

 

 

D[ R ],

(R

 

 

)2 Lшк

x

1

 

+ R

 

 

 

 

1

 

 

 

1

 

2

 

 

 

 

 

 

 

 

D[ r ( R )]=

 

R R

x

 

 

Z

шк

 

2

 

 

 

 

1

 

 

 

 

 

D[ R ],

(R

+ R

 

 

 

 

 

 

x

2

 

 

)2 Lшк

 

 

 

2

 

 

 

1

 

2

 

 

 

 

 

 

 

 

D[ rΣ ] = D[ rx ( R1 )]+ D[ rx ( R2 )].

Вероятностные характеристики

M [

 

rΣ ], D[ rΣ ]

найдены в предположении,

что погрешности сопротивлений

R1 и

 

R2

являются независимыми случайными

величинами. Зная СКО суммарной

 

погрешности

σ[ rΣ ] = D[ rΣ ] , можно

определить доверительное отклонение

 

д(

 

rΣ ) погрешности показаний прибора.

6.4. Энтропийное значение погрешности

Погрешности приборов могут быть распределены по различным законам, поэтому не всегда представляется возможным сравнивать характеристики приборов. Чтобы такое сравнение стало возможным вводят понятие энтропийной погрешности.

Информационное описание измерения. Применение теории информации к измерительным устройствам было разработано П.В. Новицким [17, 18]. В теории информации существует понятие «энтропия» как мера неопределенности или мера свободы выбора. Количество информации I определяется как разность энтропий

I = H (x) H (x xи) ,

где H(x) – энтропия (мера неопределенности) измеряемой величины до ее измерения; H (x xи) (эта запись читается как «энтропия x при условии xи») –

энтропия действительного значения x измеряемой величины (мера интервала неопределенности) вокруг полученного после измерения показания xи, т. е. энтропия погрешности измерения.

Эти оценки неопределенности в виде энтропии до и после измерения вычисляются на основе вероятностного описания ситуации до и после измерения по соотношению

+∞

 

H (x) = − p(x)ln p(x)dx ,

(6.11)

−∞

где p(x) – плотность распределения вероятностей измеряемой величины x. Энтропия обращается в нуль, когда одно из состояний системы достоверно, а

другие невозможны. Энтропия будет наибольшей при заданном числе состояний, когда эти состояния равновероятны. Энтропия увеличивается при увеличении числа состояний.

76

Если несколько независимых систем объединяют в одну, то их энтропии складывают. В этом выражается аддитивность энтропии.

Пример 6.4. Пусть для измерения величины x был использован прибор со шкалой от x1 до x2 (например, амперметр со шкалой от –50 А до +50 А). Абсолютная погрешность прибора принимается равной ± . Требуется определить количество информации, полученное в результате измерения.

Вероятностное описание ситуации до измерения состоит в том, что вероятность получить показания прибора в интервалах (− ∞; x1 ) и (x2 ; + ∞) равна

нулю, т.е. плотность распределения вероятностей p(x) в этих интервалах также

равна

нулю.

Следовательно, показание можно

 

ожидать

только в

 

интервале

[x1; x2 ] . Если предположить, что оно с равной вероятностью может принимать

любое значение из этого диапазона, то вероятностное описание ситуации до

измерения можно изобразить равномерным распределением x в пределах от x1 до

x2 (рис. 6.8) и записать в виде

 

 

 

 

 

 

 

 

 

 

 

 

p(x)

 

 

 

 

1 (x

2

x )

при

x [x ; x

2

];

 

 

 

 

 

p(x) =

 

1

при

1

 

 

1/(2

)

 

 

 

0

 

 

 

x [x1; x2 ].

 

2

 

 

Отсюда энтропия до

измерения согласно

 

 

 

 

 

 

 

 

 

 

 

(6.11)

 

 

 

 

 

 

 

 

 

 

 

 

 

 

x2

 

 

1

 

 

1

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

H (x) = −

x

2

x ln x

2

x dx = ln(x2 x1) .

 

 

 

 

 

 

x

 

1

 

1

 

 

 

1/(x2

- x1)

 

 

1

 

 

 

 

 

 

 

 

 

 

 

Таким образом, до измерения интервал

 

 

 

 

 

x

0

x1

xи

x2

неопределенности

предстоящего отсчета

 

 

[x1; x2 ] , а энтропия есть логарифмическая

Рис. 6.8. Интервалы неопределен-

мера длины этого интервала.

ности x до и после измерения

После

проведения измерения мы

погрешности прибора, равной ±

получаем

отсчет xи. Однако вследствие

, можем лишь утверждать, что действительное

значение измеряемой величины лежит где-то в пределах интервала неопределенности d = 2 . Если прибор обладает погрешностью с равномерным распределением, то ситуация после измерения описывается распределением, показанным на рис. 6.8, с шириной d = 2 и плотностью p(x) =1(2 ) .

Таким образом, в понятиях теории информации смысл измерения состоит в

сужении интервала неопределенности от x2 x1 до измерения до d = 2 – после

измерения, т.е. в N раз

N = x22x1 .

Энтропия результата измерения после получения показания xи

x

+

1

 

1

 

H (x xи) = − и

ln

dx = ln(2 ),

2

2

xи

 

 

77

т. е. также является логарифмической мерой нового интервала неопределенности. Количество информации, полученное в результате измерения, равно разности

исходной и полученной после измерения энтропий, т. е.

 

I = H (x) H (x x

и

) = ln(x

2

x ) ln(2

) = ln

x2 x1

= ln N .

 

 

 

 

 

 

 

 

1

2

 

Число

N = (x2 x1 )

 

 

 

 

 

 

 

 

(2 )

показывает,

сколько

интервалов

неопределенности

d = 2

укладывается

во

всем диапазоне x2 x1 ,

т. е. какое

число различимых

градаций измеряемой величины позволяет получить данный прибор или метод измерения.

Энтропийный интервал неопределенности. Соотношения

I = ln N и

N =

x2 x1

d

 

 

справедливы при любом законе распределения погрешности, если только интервал неопределенности d будет найден через энтропию.

В этом случае величину N называют числом различимых градаций измеряемой величины, а число d энтропийным интервалом неопределенности результата измерения.

Основное достоинство информационного подхода к математическому описанию случайных погрешностей состоит в том, что размер энтропийного интервала неопределенности может быть вычислен строго математически для любого закона распределения погрешности как величина, стоящая под знаком логарифма в выражении для энтропии H (x xи) , устраняя тем самым исторически

сложившийся произвол при волевом назначении различных значений доверительной вероятности.

Пример 6.5. Определить энтропийный интервал неопределенности результата измерения при нормальном законе распределения погрешности

p(x) =

1

 

x2

 

 

exp

 

.

σ 2π

2σ2

 

 

 

Вычислим натуральный логарифм плотности распределения p(x) ln p(x) = −ln(σ 2π)x2 (2σ2 ).

Тогда энтропия погрешности равна

+∞

+∞

 

 

H (x xи) = − p(x)ln p(x)dx = p(x)[ln(σ 2π)+ x2 (2σ2 )]dx =

−∞

−∞

 

 

+∞

 

1

+∞

= ln(σ 2π)p(x)dx +

x2 p(x)dx .

2σ2

−∞

 

−∞

Учитывая, что

78

+∞

p(x)dx =1

−∞

и по определению дисперсии

+∞

 

 

x2 p(x)dx = σ2 ,

−∞

 

 

получаем

 

 

H (x xи) = ln(σ 2π)+

1

= ln(σ 2π)+ ln e = ln(σ 2πe),

 

2

 

т. е. интервал неопределенности, найденный через энтропию в соответствии с теорией информации, однозначно (без каких-либо предположений о выборе уровня доверительной вероятности) равен

d= σ 2πe 4,133σ,

ачисло различимых градаций результата измерения при равномерном распределении вероятности различных значений измеряемой величины

N = x2 dx1 = x42,133xσ1 .

Подобным же образом энтропийный интервал неопределенности результата измерения может быть однозначно найден для любого выраженного аналитически закона распределения погрешности. Например, при распределении погрешности по треугольному закону Симпсона

H (x xи) = ln(σ 6e ) и = σ 6 d4,04σ. e

Разделение диапазона x2 x1 на отдельные различимые градации на основе формальных положений теории информации в виде функционала (6.11) для энтропии представлено на рис. 6.9.

79

p(x)

 

 

 

 

x

x1

d

x2

p(x)

 

 

 

 

x

x1

d

x2

p(x)

 

 

x1

 

x

d

x2

Рис. 6.9. Разделение диапазона x2 x1

на отдельные различимые градации

Здесь диапазон x2 x1 разбит на интервалы длиной d, вычисленные указанным выше способом. Относительно центра каждого такого интервала, как начала координат, построена кривая соответствующего закона распределения погрешности: равномерного, треугольного и нормального. Отсюда видно, что следствие определения энтропии помехи состоит в том, что только при равномерном распределении погрешности границы интервалов неопределенности, логарифм числа которых есть количество получаемой при измерении информации I = ln N , совпадают с границами распределения погрешности, т. е. отдельные полосы погрешностей лишь соприкасаются между собой. При треугольном, а тем более при неограниченных распределениях интервалы неопределенности определяются лишь той частью распределения, где сосредоточена основная масса этих погрешностей.

Таким образом, то различие в интервалах неопределенности при равномерном распределении погрешности и при неограниченных распределениях погрешности, которое исторически пытались преодолеть назначением соответствующих значений доверительной вероятности, математически строго и наглядно описывается при использовании в теории погрешностей информационного подхода.

Энтропийное значение случайной погрешности. На практике при использовании изложенного информационного подхода для оценки точности результатов измерений оперируют не значением энтропийного интервала неопределенности результата измерения d, а величиной, равной половине этого

интервала, – энтропийным значением погрешности

э.

Энтропийным значением погрешности

э

называется значение с

равномерным распределением, которое оказывает такое же дезинформационное действие (или вносит такую же неопределенность), что и погрешность с заданным законом распределения.

80

Соседние файлы в предмете [НЕСОРТИРОВАННОЕ]