Добавил:
Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:

Крючков Основы учёта,контроля 2007

.pdf
Скачиваний:
450
Добавлен:
16.08.2013
Размер:
9.31 Mб
Скачать

Из свойства 4 следует, что среднее квадратическое отклонение суммы независимых случайных величин равно корню квадратному из суммы квадратов их средних квадратических отклонений:

n

 

σ(x) = σi2 .

(4.7)

i=1

 

Рассмотрим n одинаково распределенных случайных величин: если x1, x2 , x3,..., xn – одинаково распределенные случайные ве-

личины, математическое ожидание каждой из которых равно а, то математическое ожидание их суммы равно na, а математическое ожидание среднего арифметического равно а:

x1 + x2 +... + xn

 

1

 

1

 

M

 

 

 

=

 

M (x1 + x2 +... + xn ) =

 

na = a ;

n

 

n

n

 

 

 

 

 

 

если x1, x2 , x3,..., xn

– одинаково распределенные независимые

случайные величины, дисперсия каждой из которых σ 2 , дисперсия

их суммы nσ 2 , а дисперсия среднего арифметического

σ 2

:

 

n

 

 

 

 

 

 

 

 

 

 

D(x1 + x2... + xn ) = D(x1) + D(x2 ) +... + D(xn ) = nσ 2 ,

(4.8)

x1

+ x2... + xn

1

 

σ 2

 

 

 

D

 

 

=

 

D(x1 + x2... + xn ) =

 

.

 

(4.9)

 

n

n

n

 

 

 

 

 

 

 

Функция распределения

Случайную величину можно считать полностью охарактеризованной, если для каждого значения х известна функция распределения F(x):

F(x) = P(X<x).

(4.10)

В отличие от закона распределения, однозначно связывающего значения р и х, функция распределения несколько иначе, более

171

универсально характеризует случайную величину. Вероятность того, что случайная величина примет какое–нибудь значение, удовлетворяющее неравенству x1 x < x2 , равна приращению ее функции распределения на этом интервале:

P(x1 x < x2 ) = F(x2 ) F(x1) .

Непрерывная случайная величина

Введем понятие непрерывной случайной величины.

Случайная величина называется непрерывной, если ее функция распределения всюду непрерывна со своей производной (за исключением конечного числа точек на конечном интервале).

Плотность вероятности непрерывной случайной величины

Плотностью вероятности ϕ(x) непрерывной случайной величины называется производная ее функции распределения:

ϕ(x) = F'(x) .

(4.11)

Вероятность того, что непрерывная случайная величина Х примет какое–либо значение из интервала (а,b), равна определенному интегралу от ее плотности вероятности в пределах а, b:

b

P(a < X < b) = ϕ(x)dx = F(b) F(a),

(4.12)

+∞

a

ϕ(x)dx =1.

 

 

−∞

Плотность вероятности ϕ(x) случайной величины Х и ее функ-

ция распределения F(x) взаимно определяют друг друга. Действительно,

x

 

F(x) = P(−∞ < X < x) = ϕ(x)dx .

(4.13)

−∞

Геометрическая интерпретация полученных формул вполне очевидна. Кривой распределения непрерывной случайной величины называется график ее плотности вероятности.

172

Математическое ожидание М(X) непрерывной случайной величины:

+∞

 

M (X ) = xϕ(x)dx .

(4.14)

−∞

 

Дисперсия D(X) непрерывной случайной величины:

 

+∞

 

D(X ) = (x a)2 ϕ(x)dx, где a = M (X ).

(4.15)

−∞

Все установленные ранее свойства математического ожидания и дисперсии справедливы и в случае непрерывной случайной величины. Например, свойство (4.5), для непрерывной случайной величины:

+∞

D(X ) = x2ϕ(x)dx [M (X )]2 .

−∞

Кроме математического ожидания и дисперсии, применяется еще ряд числовых характеристик, отражающих те или иные особенности распределения. Рассмотрим следующие важнейшие характеристики распределений.

Моменты

Среди числовых характеристик случайной величины особое значение имеют начальные и центральные моменты. Известно, что математическое ожидание и дисперсия являются моментами, а точнее, математическое ожидание – начальный момент первого порядка, а дисперсия – это центральный момент второго порядка. Все основные распределения связаны с моментами первых двух порядков (они являются параметрами этих распределений). Однако если возникает задача детально охарактеризовать случайную величину, то можно использовать моменты более высоких порядков.

Назовем начальным моментом порядка k:

νk = M (X k ),

(4.16)

173

 

а центральным моментом порядка k

 

µk = M [(X M (X ))k ].

(4.17)

Медиана

Используется в качестве показателя центра группирования значений случайной величины наряду с математическим ожиданием. Для непрерывной случайной величины медиана – граница, левее и правее которой находятся значения случайной величины с вероятностью 0,5. Для нормального распределения: Ме(Х) = М(Х) = а.

Мода

Для непрерывной случайной величины мода – точка локального максимума функции плотности вероятности. Для нормального распределения Мо(Х) = М(Х) = а.

Квартили

Квартили – границы, которые делят все распределение на четыре равные по вероятности части. Квартилей всего три. Очевидно, что центральный квартиль – медиана.

Квантили

Квантилем уровня q (или q–квантилем) называется такое значение xq случайной величины, при котором функция ее распределе-

ния принимает значение, равное q:

F(xq ) = P(X < xq ) = q .

(4.18)

Некоторые квантили получили особые названия. Очевидно, что введенная выше медиана есть квантиль уровня 0,5, т.е.

Me(X ) = x0,5 .

С понятием квантиля тесно связано понятие процентной точки.

174

Под 100q %–ной точкой подразумевается квантиль x1q , т.е. та-

кое значение случайной величины Х, при котором справедливо следующее условие:

P(X x1q ) = q .

(4.19)

Биномиальный закон распределения

Закон распределения числа наступления х события А в n независимых испытаниях, в каждом из которых оно может наступить с постоянной вероятностью р, подчиняется биномиальному закону распределения, выражением которого является формула Бернулли:

P(x = m) = Cnm pmqnm , m = 0,1, 2,... ,n .

(4.20)

При этом математическое ожидание случайной величины, распределенной по биномиальному закону равно np, а дисперсия рав-

на npq:

M(X) = np; D(X) = npq.

Типичное толкование биномиального распределения:

вероятность появления события точно т раз в п независимых испытаниях (схема Бернулли) при условии, что вероятность постоянна и равна р;

поскольку испытание можно трактовать как выборку, то это вероятность того, что повторная случайная выборка объема п содержит ровно т элементов данного типа, если генеральная совокупность объема N содержит pN элементов данного типа.

Гипергеометрический закон распределения

Обобщением биномиального закона является гипергеометрический закон распределения:

175

 

 

 

N1

N N1

 

 

m nm

 

 

 

 

 

 

 

 

m

n m

 

 

 

CN CN N

 

 

 

 

 

 

 

P(X = m) =

 

 

=

 

1

 

1

,

 

 

(4.21)

 

 

 

 

 

 

 

 

 

 

 

 

N

 

 

 

 

n

 

 

 

 

 

 

 

 

 

 

 

 

 

 

CN

 

 

 

 

 

 

 

 

 

n

 

 

 

 

 

 

 

 

 

 

 

где N n ,

N N1 = pN ;

 

 

 

 

 

 

 

 

 

 

 

 

 

 

nN1

 

nN1(N N1)

 

 

n 1

 

 

 

 

n 1

M (X ) =

N 2

= pn; D(X) =

 

N 2

 

1

 

 

 

= np(1

p) 1

 

.

 

 

 

 

 

 

 

 

 

 

 

N 1

 

 

 

 

N 1

Типичное толкование гипергеометрического закона распределения: Р(Х = т) в (4.21) есть вероятность того, что случайная бесповторная выборка объема п содержит т элементов данного типа, если эта выборка производится из генеральной совокупности N элементов, среди которых N1 = pN элементов данного типа.

Справедлив следующий предельный переход: очевидно, что если N → ∞ , в то время, как п и p = N1 / N остаются фиксированны-

ми – гипергеометрический закон стремится к биномиальному. Действительно, бесповторная выборка мало отличается от повторной, если отношение п/N мало. Данная аппроксимация справедлива, ес-

ли n / N < 0,1.

Заметим, что математическое ожидание относительной частоты события А в п независимых испытаниях, в каждом из которых оно может наступить с вероятностью р, равно этой вероятности, а дисперсия равна pq/n.

Итак, M(X/n) = p, D(X/n) = pq/n. Следовательно:

 

σ =

pq .

(4.22)

 

n

 

Таким образом, при увеличении числа испытаний относительная частота события все менее и менее рассеяна около его вероятности.

Закон Пуассона

Если, случайная величина Х может принимать только целые неотрицательные значения т = 0, 1, 2, 3,с вероятностью:

176

P(X = m) =

λmeλ

,

(4.23)

 

m!

 

 

где λ – параметр, то говорят, что она распределена по закону Пуассона.

Это закон редких событий, вероятность которых р мала, а число п велико, например тяжелые аварии, рождение трех близнецов и т.д.

Распределение Пуассона аппроксимирует гипергеометрическое и биномиальное, когда pN → ∞; n → ∞; p 0 при условии, что

рп имеет конечный предел рп = λ. Это приближение обычно применяется при условии, что р < 0,1.

Математическое ожидание и дисперсия случайной величины, распределенной по закону Пуассона, совпадают и равны значению параметра λ = рп.

Нормально распределенные случайные величины

Большинство полученных опытным путем, измеренных или наблюдаемых непрерывных случайных величин распределены по нормальному закону:

 

1

 

 

(x a)

2

 

 

ϕn (x) =

 

 

 

(4.24)

σ 2π

exp

2σ

2

 

.

 

 

 

 

 

 

 

Величины σ и а являются параметрами нормального распределения. Графиком этого распределения является нормальная кривая или гауссиана (pис. 4.2).

Нормальная кривая с параметрами а = 0 и σ = 1 называется стандартной. Функция ϕn (x) имеет следующие свойства:

существует при всех действительных значениях аргумента;

имеет экстремум при х = а, ϕn (а) =

σ

1

;

 

2π

 

симметрична относительно оси, походящей через х = а;

имеет две точки перегиба, слева и справа от х = а с абсцисса-

ми, соответственно, x = a σ и x = a +σ .

177

Рис. 4.2. Нормальная кривая

Легко убедиться, что параметры нормального распределения имеют смысл математического ожидания и среднего квадратического отклонения:

a = M(X) и σ = D(X ) .

Можно показать, что нормальные кривые, с совпадающими σ, имеют одинаковую форму и различаются только сдвигом координаты максимума. Значение дисперсии, а точнее σ (СКО), существенно влияет на форму нормальной кривой. При уменьшении σ кривая «сужается», вытягивается вверх и становится иглообразной, при увеличении σ кривая снижается, становится более «широкой» и приближается к оси абсцисс.

Если случайная величина Х распределена по нормальному закону, то

 

 

 

 

 

 

 

 

 

 

 

 

x

a

 

x

2

a

 

 

 

 

P(x

< X < x

2

) = 0,5

 

Ф

1

 

Ф

 

 

 

 

,

(4.25)

 

 

 

 

 

 

 

 

1

 

 

 

 

 

 

 

σ

 

 

σ

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

2

x

 

 

t

2

 

 

 

 

 

 

 

 

 

 

 

 

 

 

где

Ф(x) =

 

 

 

 

 

 

интеграл вероятностей,

значения

2π

exp

 

2

dt

 

 

 

0

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

которого затабулированы.

Формула (4.25) упрощается, если границы интервала симметричны относительно математического ожидания:

178

 

 

 

 

 

 

 

 

P(

X a

 

≤ ∆)= Ф

 

.

(4.26)

 

 

 

 

 

 

σ

 

 

 

 

Логнормальное распределение

Непрерывная случайная величина Х имеет логнормальное распределение, если ее логарифм подчинен нормальному закону. Плотность вероятности для логнормального распределения:

 

1

 

 

(ln x ln a)

2

 

 

ϕ(x) =

 

 

 

(4.27)

σ 2π x

exp

2σ

2

 

.

 

 

 

 

 

 

 

Можно доказать, что числовые характеристики случайной величины, распределенной по логнормальному закону, имеют вид:

M (X ) = aexp(σ2 / 2), Me(X ) = a,

(4.28)

D(X ) = a2 exp(σ2 )(exp(σ2 ) 1).

Логнормальное распределение используется достаточно широко, например, для описания распределения доходов, для описания распределения примесей в сплавах и минералах, для описания долговечности изделий в режиме износа и старения и т.п.

Распределения, связанные с нормальным распределением

Наиболее часто в математической статистике используются χ2

(Пирсона), t (Стьюдента) и F (Фишера) распределения. Все эти распределения связаны с нормальным. В свою очередь, широкое распространение нормального распределения обусловлено, как мы увидим, исключительно центральной предельной теоремой (см. раздел 4.6). Ввиду их особой важности, все названные распределения затабулированы и содержатся в различных статистических таблицах, учебниках и справочниках [3].

Ранее мы ввели одномерное стандартное нормальное распределение, как распределение с математическим ожиданием а = 0 и

дисперсией σ 2 = 1, его плотность

179

ϕ(x) = Ф'(x) = 1

e

x2

 

2

.

(4.29)

2π

 

 

 

 

В общем случае, одномерное нормальное распределение харак-

теризуется математическим ожиданием а и дисперсией σ 2 . Тогда любое одномерное нормальное распределение можно трактовать как распределение случайной величины:

η = a +ξ σ 2 ,

где случайная величина ξ подчинена стандартному нормальному закону.

Распределение Пирсона. Пусть ξ1,...,ξn – независимые случай-

ные величины, распределенные по стандартному нормальному закону. Распределение случайной величины:

χ2 =ξ12 +... +ξn2

носит название χ2 –распределения (распределения Пирсона) с п степенями свободы. χ2 –распределение имеет плотность

 

 

 

1

 

 

 

n

1

x

 

 

 

 

 

 

 

 

 

 

 

 

h(x) = H '(x) =

 

 

 

 

 

x 2

e

2

(x > 0) ,

(4.30)

 

n

n

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

22

Г

 

 

 

 

 

 

 

 

2

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

где Г(n) – гамма–функция.

В дальнейшем нам будет полезно следующее свойство. Пусть ξ1,...,ξn – независимые случайные величины, распределенные по

нормальному закону с одинаковыми параметрами а и σ 2 . Положим

η = 1n (ξ1 +... +ξn ) .

Тогда случайная величина

180