- •Введение
- •Глава 1. Основные положения теории измерений
- •1.1 Взаимосвязь понятий измерения и числа
- •1.2. Физические величины и их единицы
- •1.3. Измерительные шкалы
- •Глава 2. Обработка результатов измерений
- •2.1. Классификация ошибок
- •2.2. Основы теории ошибок
- •2.2.1. Частота, вероятность, среднее значение, дисперсия
- •2.2.2. Распределение вероятностей
- •2.2.2.1. Гауссово, или нормальное, распределение (н.р.)
- •2.2.2.3. Распределение Пуассона
- •2.2.2.4. Другие распределения
- •2.2.3. Доверительный интервал
- •2.2.4. Критерий Пирсона (хи-квадрат)
- •2.2.5. Сложение ошибок
- •2.2.6. Взвешенное среднее значение
- •2.3.1. Линейная регрессия
- •2.3.2. Нелинейная регрессия
- •2.4. Методы оценки числа измерений
- •2.4.2. Оценка числа измерений, необходимого для получения СКО среднего с требуемой точностью
- •2.4.3. Оценка числа измерений для определения допустимых границ
- •Таблица 2
- •2.5. Статистическая проверка гипотез
- •2.5.1. Проверка гипотезы о среднем значении нормально распределенной случайной величины х с известной дисперсией
- •2.5.2. Проверка гипотезы о значении дисперсии нормально распределенной случайной величины х при неизвестном среднем
- •2.5.4. Проверка гипотез о положении (сдвиге), симметрии распределения, однородности данных
- •2.6. Определение вида закона распределения значений измеряемой величины
- •2.6.1. Аналитические методы
- •2.6.1.3. Определение энтропийного коэффициента
- •Таблица 9
- •2.6.2. Графические методы
- •Таблица 10
- •2.6.3. Проверка гипотезы о согласовании эмпирического и теоретического распределения по критериям согласия
- •2.6.4. Оценка истинного значения и ошибки измерения
- •Глава 3. Измерительные устройства
- •3.1. Основные блоки измерительных устройств
- •3.2. Передаточные характеристики
- •3.3 Динамические свойства измерительных устройств
- •3.3.1 Передача непериодического сигнала
- •3.3.2. Передача периодического сигнала
- •3.4. Принцип обратной связи
- •Приложения
- •1. Примеры решения задач
- •2. Совместная обработка количественных и качественных данных
- •3. Таблицы наиболее часто используемых распределений [2,3]
- •3.1. Интегральная функция нормированного нормального распределения
- •3.2. Распределение Стьюдента
- •3.4. F-распределение Фишера
- •Список литературы
- •Оглавление
|
1 |
|
n |
|
S n2 = |
|
∑(x i − x n )2 . |
|
|
|
|
|
||
|
n −1 i=1 |
|
||
(2.13) |
|
|
|
|
(В этой формуле вместо n появился множитель (n −1) , |
т.к. для расчета |
|||
разностей |
(x i |
− x n ) надо иметь по крайней мере два |
результата). С |
математической точки зрения это означает, что только с учетом этого множителя математическое ожидание Sn2 будет равно дисперсии
генеральной совокупности. Величину S n2 называют выборочным
стандартным (СТО) или среднеквадратичным (СКО) отклонением Sn . Оно характеризует разброс отдельных результатов измерений вблизи среднего значения и является наилучшей оценкой среднеквадратичного отклонения σ генеральной совокупности, которую можно получить по выборке объема n . Для практического расчета выборочной дисперсии пользуются формулой, вытекающей из (2.11):
|
1 |
n |
1 |
|
n |
1 |
|
n |
|
2 |
|
|
|
|
|
|
|
|
|||||
S n2 = |
|
∑(x i − x n )2 = |
|
|
∑x i2 − |
|
∑x i |
. |
(2.14) |
||
|
n −1 |
|
|||||||||
|
n −1 i=1 |
i=1 |
n i=1 |
|
|
|
|||||
|
|
|
|
|
|
|
|
|
|
|
|
Кроме среднего значения результатов измерений экспериментатора интересует его точность. Ее можно определить, несколько раз повторяя серии по n измерений. Тогда величины математических ожиданий x n
образуют распределение, стандартное отклонение которого Sx будет характеризовать разброс средних значений x n от выборки к выборке. Поэтому величину Sx называют СТО (СКО) выборочного среднего (или
его средней ошибкой). Пользуясь законом сложения ошибок (см. п. 2.2.5.) получим:
Sx = |
Sn . |
(2.15) |
|
n |
|
Таким образом, точность измерений достаточно медленно растет с увеличением числа измерений при больших n. Поэтому надо стремиться не к увеличению числа измерений, а к улучшению измерительных методов, которые позволяют уменьшить СТО Sn отдельного измерения.
2.2.2. Распределение вероятностей
Обсудим наиболее важные распределения вероятностей (р. в.) для генеральной совокупности, которые часто используются при обработке результатов измерений. На практике могут реализоваться различные распределения вероятностей, т. к. кроме разброса измеряемых значений
из-за случайных ошибок существует статистические флюктуации самой измеряемой величины. В качестве примера можно привести радиоактивный распад и спонтанную эмиссию излучения.
2.2.2.1. Гауссово, или нормальное, распределение (н.р.)
Н.р. было найдено К. Ф. Гауссом. Его можно получить a priori (до опыта) в рамках теории ошибок. Важная роль гауссова распределения объясняется тем, что оно, с одной стороны, хорошо описывает плотность вероятностей для многих величин, а с другой – распределение численных значений, при самых разных измерениях. Кроме того, многие другие распределения переходят в предельном случае в нормальное, поэтому их можно заменить распределением Гаусса. Плотность вероятности для
случайной переменной x имеет вид: |
|
|
||||||
p(x; x0 |
|
1 |
|
|
(x − x |
)2 |
|
|
,σ) = |
2πσ |
exp |
− |
2σ |
20 |
, при –∞ < x< ∞ |
(2.16) |
|
|
|
|
|
|
|
|
На рис. 2 показано нормальное распределение со значениями параметра σ=0,5, 1 и 2.
P(x,x0, σ) |
|
|
|
1 |
|
|
σ = 0,5 |
0,8 |
|
|
|
0,6 |
|
|
σ = 1 |
0,4 |
|
|
|
|
|
σ = 2 |
|
0,2 |
|
|
|
|
|
|
|
0 |
|
|
x |
0 |
1 |
Xo |
10 |
Рис. 2. Плотности вероятностей для нормального распределения при σ=0,5;1;2 [2,11].
Оно характеризуется следующими особенностями.
1.Распределение симметрично относительно точки x=x0 .
2.Математическое ожидание равно:
∞
x = E(x) = ∫x p(x; x 0 ,σ) dx = x 0 ,
−∞
и ему соответствует максимальная плотность вероятности
p(x 0 ; x0 ,σ) = |
1 . |
|
2πσ |
3.По обе стороны от максимума величина p падает монотонно и асимптотически стремится к нулю.
4.Дисперсия и среднеквадратичное отклонение (СКО) определяются как
∞
D(x) = ∫(x − x 0 )2 p(x; x 0 ,σ) dx = σ 2 ,
−∞
Среднеквадратичное отклонение (стандартное отклонение) – σ.
5. Из рис. 2 следует, что при увеличении СКО распределение становится шире, а максимальное значение плотности уменьшается. Вследствие
|
|
∞ |
|
|
условия нормировки ∫ pdx =1 |
площадь под кривой остается |
|||
постоянной. |
−∞ |
|
||
|
|
|||
Используя величины |
|
|||
u = |
x − x0 |
, |
(2.17) |
|
σ |
||||
|
|
|
можно получить нормированное (стандартизованное) нормальное распределение (н. н.р.). Оно имеет вид: p(x) dx = ϕ(u) du, где
ϕ(u) = |
1 |
|
− |
u2 |
|
|
|
|
(2.18) |
|
π |
exp |
2 |
. |
|
|
|
||||
|
|
|
|
|
|
|
|
|||
|
2 |
|
|
|
|
|
|
|
|
|
Функция распределения дается выражением (2.7): |
|
|||||||||
F(x) = |
1 |
x |
|
|
|
(z − x |
)2 |
(2.19) |
||
|
∫ exp− |
|
|
20 |
dz . |
|||||
|
2πσ −∞ |
|
|
|
|
2σ |
|
|
|
Ее нельзя представить в виде элементарных функций, поэтому во многих работах она затабулирована в стандартизованном (нормированном) виде Ф(u) :
Φ(u) = |
1 |
u |
|
− |
t 2 |
|
|
(2.20) |
π |
∫ |
exp |
dt . |
|
|
|||
|
|
|
2 |
|
|
|
||
|
2 |
−∞ |
|
|
|
|
|
|
Часто используют так называемую функцию ошибок (интеграл |
||||||||
ошибок Гаусса) erf(u): |
|
|
|
|
|
|||
erf(u) = |
2 |
u |
|
|
|
u |
−1. |
(2.21) |
|
∫exp(−t 2) dt = 2Φ |
|
||||||
|
π |
0 |
|
|
|
2 |
|
|
Можно получить соотношение, которое весьма полезно для практических целей:
x − x |
0 |
|
= |
1 |
|
x − x |
0 |
|
||
F(x) = Φ |
σ |
|
2 |
1 |
+ erf |
σ |
|
|||
|
|
|
|
|
|
|
|
|||
|
|
|
|
|
|
|
|
2 |
|
|
(2.22)
На рис. 3 приведены нормальное распределение и его функция распределения в стандартизованном виде.
1 |
|
|
1,0 |
|
|
|
|
|
|
|
Ф(u) |
|
|
|
|
|
|
|
|
|
0,5 |
|
|
|
0,5 |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
ϕ(u) |
|
0 |
|
|
|
|
|
|
-3 |
-2 |
-1 |
0 |
1 |
2 |
3 |
Рис. 3. Стандартизованная форма н.р. ϕ(u) и его функции распределения вероятности Ф(u) [2,11].
|
|
Вероятность того, что случайная переменная x, распределенная по |
|||||||||||||||||
нормальному закону, попадает в интервал [x1, x2] равна: |
|
|
|
||||||||||||||||
P(x1 ≤ x ≤ x 2 ) = F(x 2 ) − F(x1) |
|
x |
2 |
− x |
0 |
|
x |
1 |
− x |
0 |
|
= |
|||||||
= Φ |
σ |
|
− Φ |
σ |
|
||||||||||||||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
(2.23) |
||
|
1 |
erf |
x 2 |
− x 0 |
|
− erf x1 − x 0 |
|
|
|
|
|
|
|
|
|
|
|
||
= |
|
|
|
|
|
|
|
|
|
|
|||||||||
|
2 |
|
|
σ |
|
|
σ |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|||
|
|
|
2 |
|
|
2 |
|
|
|
|
|
|
|
|
|
|
|
Величину P, выраженную в процентах называют также статистической достоверностью (вероятностью). В табл. 1 приведены ее значения для практически важных интервалов.
|
|
|
|
|
Таблица 1 |
||
|
|
Интервал |
|
|
|
|
P, % |
|
x0 – σ |
≤ x ≤ |
x0 + σ |
|
68,3 |
||
x0 |
– 1,96σ |
≤ x ≤ |
x0 |
+ 1,96σ |
|
95 |
|
|
x0 – 2σ |
≤ x ≤ |
x0 |
+ 2σ |
|
95,5 |
|
x0 |
– 2,58σ |
≤ x ≤ |
x0 |
+ 2,58σ |
|
|
99 |
|
x0 – 3σ |
≤ x ≤ |
x0 + 3σ |
99,7 |
|
||
На рис. 4 показаны области ±σ и ±2σ для нормального распределения. |
|||||||
p(x; x0; σ) |
|
|
|
|
p(x; x0; σ) |
|
|
0,4 |
|
|
|
|
0,4 |
|
|
0,2 |
68,3% |
|
|
0,2 |
95,5% |
|
|
|
|
|
|
|
|||
0 |
x0–σ x0 |
|
|
x |
0 |
x0 |
x |
|
x0+σ |
|
|
x0–2σ |
x0+2σ |
||
|
Рис. 4. Интервалы x0 –σ ≤ x ≤ x0 +σ и x0 –2σ ≤ x ≤ x0 +2σ. |
2.2.2.2. Биномиальное распределение
Это распределение называют иногда распределением Бернулли. Оно является наиболее важным дискретным распределением и получило свое название в связи с тем, что его члены представляют собой слагаемые биномиального разложения. Пусть в некотором опыте возможны только два исхода А и В; причем p – вероятность исхода А. Повторим наш опыт n раз, тогда биномиальное распределение предскажет вероятность того, что исход А будет наблюдаться в точности x раз:
P(x; n, p) = xn px (1 − p) n−x , где x=0, 1, … , n
Функция распределения имеет вид:
x |
n |
− p) n−k , |
F(x) = ∑ |
pk (1 |
|
k =0 |
k |
|
n
где – число сочетаний из n по k.
k
(2.24)
(2.25)
Разумеется должно выполняться условие нормировки:
∑P(x; n, p) =1.
x
Математическое ожидание и дисперсия имеют вид:
n |
|
x = E(x) = ∑xP(x; n, p) = np |
(2.26) |
x =0