Добавил:
Upload Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:
Теория_вер_мат_статистика4a.pdf
Скачиваний:
15
Добавлен:
29.02.2016
Размер:
741.77 Кб
Скачать

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

20

 

 

 

X i

 

M (X i

)

 

M ( X i

)

 

nM ( X i

)

 

na

 

Тогда М( X )= =М

= =

=

=

=

=а. Иначе

n

n

 

n

 

n

 

n

 

 

 

 

 

 

 

 

 

 

 

говоря, с увеличением числа экспериментов истинное значение величины (ее математическое ожидание) не меняется !

 

 

 

X i

 

DX i

 

D( X i

)

 

nD( X i

)

 

D

 

Теперь D( X )=D(

)=

=

=

=

. После чего имеем

n

n 2

n 2

 

n 2

 

n

 

 

 

 

 

 

 

 

 

 

σ( X )= σ . n

20.4.Типовые распределения.

Рассмотрим сначала наиболее распространенные типовые распределения для дискретных случайных величин.

20.4.1. Дискретные случайные величины Если производится испытаниена предмет появления события А, которое

может появиться или нет с известной вероятностью р, то СВ Х – число появлений события А в одном испытанииимеет распределение вида

 

Х

 

0

1

 

 

 

 

 

 

 

 

 

 

 

(взято

Р

 

1-р

р

 

потому

М(Х)=0*(1-р)+1*р=р.

 

из

примера

20.5). А

Такое распределение называют биномиальным.

Если производится n независимых испытаний, в каждом из которых некоторое событие А может появ`иться или не появ`иться с постоянной вероятностью р, известной до испытания, то вероятности значений СВ Х – числа появлений события А в этих испытаниях при “малой серии” и “большой” вероятности р - можно рассчитывать по формуле Бернулли Pn(k)=Cnkpnqn-k. Эту формулу иногда называют биномиальной, т.к. правая часть равенства дает значение k-го слагаемого при возведении в степень n бинома (p+q)n . Пример такого распределения приведен в разделе 20.3. Такое распределение называют распределением Бернулли. Из ранее приведенных примеров следует, что математическое ожидание такой СВ равно M(X)=np. А дисперсия равна

D(X)=npq.

Если же в схеме повторных независимых испытаний вероятность в опыте

очень мала, а серия очень велика, то вероятности значений СВ Х (упомянутой

 

 

λ k

выше) вычисляются по формуле Пуассона

Pn(k)=

 

еλ . Числовые

k!

характеристики при этом остаются теми же : M(X)=np= λ ,

D(X)=npq. Такое

распределение называют пуассоновским.

 

 

 

Помимо указанных существуют и другие распределения, сведения о которых можно найти в специальной литературе. Упомянем только геометрическое распределение. Такое распределение имеет СВ Х – число израсходованных потронов при стрельбе до первого попадания или до израсходования патронов. Желающий может самостоятельно построить такое распределение для конкретного случая.

20

21

20.4.2.Непрерывные случайные величины.

Если плотность вероятности непрерывной СВ Х задана так

f(x)= c

на

[a;b]

где с – некоторая постоянная, то говорят, что СВ

0

вне

[a;b]

 

распределена равномерно.

Константу С можно найти, опираясь на свойства плотности вероятности.

Напрмиер, известно, что

f (x)dx=1. Получаем b Cdx+ a

0dx+ f (x)dx=1.

 

 

 

 

 

 

 

 

 

 

 

 

−∞

 

 

 

 

 

 

 

a

 

−∞

 

−∞

 

 

Откуда получаем С(b-a)=1 или С=

1

 

 

. После чего получаем окончательный

b a

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

1

 

 

 

 

 

 

 

вид плотности равномерного распределения f(x)=

 

 

на

[a;b]

. Теперь

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

b a

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

0 вне [a;b]

 

 

можно

 

 

 

получить

функцию

 

 

 

равномерного

 

 

распределения

 

0 при

− ∞ < x < a,

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

x - a

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

F(x)=

 

 

 

 

при a x b,

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

b - a

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

1 при

b < x < ∞

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

В самом деле, например, для промежутка [a;b] имеем F(x)=

a

0dx+ x

 

1

dt=0+

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

−∞

a ba

 

1

t

 

x

 

x a

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

+

 

 

a =

.

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

ba

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

b a

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

Теперь можно вычислять числовые характеристики.

 

 

 

 

 

 

М(Х)=

 

xf(x)dx= b

x

 

dx=

x 2

 

 

b

=

a + b

- середина отрезка, о чем можно

 

 

 

 

 

 

 

 

 

 

 

−∞

 

 

 

a ba

 

2(b a)

 

 

a

 

2

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

было сказать заранее (см. физическое истолкование М(Х) ).

D(X)= x2 f (x)dx-

a + b

2

= b

x2

 

dx-

a + b

2

=

x3

 

b

-

a + b

2

=

(a b)2

.

 

 

 

 

 

 

 

 

 

 

 

 

 

−∞

2

 

a ba

2

 

 

3(b a)

 

a

2

 

 

12

 

 

 

 

 

Примеры равномерно распределенных величин :

-указатель рулетки (стрелка) отсчитывает величину угла ф, равномерно распределенного в промежутке [0;2π ]; -время ожидания автобуса на остановке Т, если установлен интервал движения,

-величина , равномерно распределенная в промежутке от 0 до длины интервала движения.

Графики функции равномерного распределения и плотности вероятности имеют вид

21

22

Если плотность распределения имеет вид

f(x)=

α e αx

 

на

[0; )

где α

– некоторая постоянная, то говорят, что СВ

 

0

нa

(−∞;0)

 

 

 

 

 

 

распределена показательно.

 

 

 

 

Можно

установить вид функции показательного распределения F(x)=

= x

f (t)dt= 0

0dt+ x α e αt dt=1-e-α x

для x>0. Получаем F(x)= 1e αx

на [0;) .

−∞

 

 

−∞

 

0

 

0

нa (−∞;0)

Графики этих функций имеют вид

= x3

3(b a)

Теперь вычисляем числовые характеристики.

М(Х)= xf(x)dx= x α e α xdx=

−∞ 0

= α1 , аналогично D(X)=

= x2 f (x)dx-

1

2

=αb x 2 e α xdx-

1

2

=

 

 

−∞

α

 

a

α

 

 

b -

1

=

 

1

. Т.о. σ (х)=

1

.

α 2

α 2

 

a

 

 

α

По такому закону распределены: -поток отказов в работе приборов; -надежность работы оборудования.

Пример 20.6. Пусть α - интенсивность отказов изделия. Тогда за время t произойдет (ожидается) tα отказов. Надеемся, что отказов мала (редкое массовое событие). Тогда по Пуассону имеем вероятность k отказов

22

23

(α t) k еαt

Pn(k)= k! за время t. Рассмотрим случайную величину Т – время

безотказной работы – т.е. время между двумя последующими отказами. Величина F(t)=P(T<t)=1-P(T>t) - это вероятность того, что сбой (отказ) будет раньше, чем через промежуток t работы. Тогда вероятность безотказной работы (k=0) можно подсчитать так P(T>t)=Po(t)=е- tα- это и есть функция надежности R(t). Теперь получаем вероятность отказа раньше времени t P(T<t)=F(t)= =1-е-tα . Она совпадает с полученной ранее функцией показательного распределения. Отсюда f(t)= α e-α t при t>0.

Изобразим график функции показательного распределения

0 τ t t+ τ

Из графика видно, что вероятность безотказной работы (площадь криволинейной трапеции под кривой распределения) на промежутках одинаковой длины τ зависит от начала этого промежутка – чем он позже начинается, тем меньшая площадь (вероятность безотказной работы).

Немного о показательной функции надежности. Назовем элементом любое устройство независимо от его сложности. Пусть элемент начинает работать в момент времени to=0 и по истечении времени t происходит отказ. Если он работал меньше t времени, следовательно за время t наступил отказ в работе. Тогда вероятность отказа в работе можно задать так P(T<t)=F(t). В этом случае R(t)=P(T>t)=1-F(t)= e-α t и есть показательная функция надежности.

Свойство показательного закона надежности :

-вероятность безотказной работы элемента на интервале длиной τ не зависит от времени предшествующей работы элемента до начала данного интервала, а зависит только от длины самого интервала.

Док. Пусть А – событие – безотказная работа элемента на промежутке (0; to). Пусть В – событие – безотказная работа элемента на промежутке (to; to+τ). Тогда АВ – событие - безотказная работа элемента на промежутке

(0; to+τ). Получаем Р(А)= eαto ; Р(В)= eατ ; поэтому Р(АВ)= eα( to +t) = eαto eατ .

Найдем вероятность, что элемент будет безотказно работать на промежутке (to; to+τ) при условии, что он безотказно работал на промежутке (0; to). Это

 

P( AB)

 

e

- α t0

e

- α tτ

ατ

 

 

 

 

 

 

 

будет РА(В) =

 

=

 

 

 

= e

- что в самом деле не зависит от момента

P(B)

 

e

- α t0

 

 

 

 

 

 

 

 

времени to. Это и означает, что РА(В) – в самом деле функция , но в ней отсутствует последействие (предыдушее не оказывает влияние в дальнейшем).

23

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

24

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

12 π e

(xa)2

 

Опр. Если плотность вероятности СВ Х имеет вид f(x)= σ

2σ2

, то

говорят, что Х распределена нормально с параметрами σи а.

 

 

 

 

 

Установим смысл этих параметров. Для этого вычислим математическое

 

 

 

 

 

 

(xa)2

 

сделаем

замену z =

x a

тогда

 

 

 

 

 

 

 

 

 

 

 

 

 

ожидание М(Х)= х

 

e

 

 

 

 

 

 

 

 

1

 

 

 

dx=

 

x =σ z + a, dx =σσdz

 

 

 

 

2σ2

 

=

 

 

 

 

 

 

−∞

σ 2 π

 

 

 

 

 

 

 

x = −∞ соответствует z = −∞

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

x = ∞ соответствует z = ∞

 

 

 

 

 

z2

 

 

 

z2

 

 

 

 

 

 

 

 

 

 

 

1

 

1

 

 

 

 

 

 

 

 

 

 

 

 

2

 

 

 

2

 

 

 

 

 

 

 

 

 

 

 

 

= 2 π

−∞ze

 

 

dz +а

2 π −∞

e

dz.

 

Первое

слагаемое взято

 

от нечетной

функции в симметричных пределах и потому равно нулю. Второй интеграл равен вместе с множителем равен 1 (т.к. это вероятность всевозможных случаев в схеме повторных испытаний). Т.о. получаем М(Х)=а. Т.е. параметр а – математическое ожидание нормально распределенной случайной величины.

Теперь подсчитаем

 

 

 

(xa)2

сделаем замену z =

x a

тогда

 

 

(x-a)2

 

e

 

 

 

 

 

 

1

 

dx=

x =σ z + a, dx =σσdz

 

 

D(X)=

2σ2

 

и

 

−∞

σ 2 π

 

 

 

x = −∞ соответствует z

= −∞

 

 

 

 

 

 

 

x = ∞ соответствует z

= ∞

 

проинтегрируем по частям слагаемое , которое содержит z2 . получим D(X)=

σ2 . Т.е. параметр σ - среднее квадратическое отклонение нормально распределенной случайной величины.

В частности при а=0 и σ=1 распределение называют нормированным

 

 

 

x2

 

 

x

 

z2

 

 

1

 

1

0

 

 

2

 

 

2

 

 

(смотри функциии ф(х) =

2 π

e

 

 

и Ф(х)=

2 π

e

dz в cхеме повторных

независимых опытов).

Исследуем влияние параметров на вид нормальной кривой f(x). 1.Область определения функции (- ; ), т.е. нормально распределенная СВ может принимать любые действительные значения.

2.Как всякая экспонента f(x)>0 при любых значениях х.

3. lim f (x) = 0 , т.е. кривая имеет горизонтальную нижнюю асимптоту при

x → ± ∞

 

неограниченном изменении аргумента.

 

(xa)2

4. f’(x)= - σ x3

2aπ e2σ2 определена для всех значений аргумента и обращается в

нуль в точке х=а. Легко видеть, что слева от х=а производная отрицательна, а справа – положительна и потому точка х=а точка максимума, который равен

24

 

25

1

. Отсюда видно, что точка максимума передвигается вдоль оси Ох

σ 2 π

вместе с изменением математического ожидания М(Х)=а. Значение максимума

меняется вместе с изменением среднего квадратического σ. Уменьшение σ приводит к возрастанию макимума и кривая становится более острой. А

увеличение σ приводит к меньшему макисимуму , что делает кривую более пологой.

 

 

 

(xa)2

5.f’’(x) )= - σ 3

1

2 π (1- (xσ2a)2

)e2σ2 определена для всех значений аргумента и

обращается в нуль в точках х=а±σ . Это точки перегибов (что можно проверить по закам этой производной в интервалах с разных сторон от найденных точек). Эти точки симметричны относительно математического ожидания М(Х)=а и потому кривая симметрична относительно вертикали х=а.

1

σ2 π

0 а-σ а

а-σ

Т.о. параметры

а и σ влияют на форму нормальной кривой. а – на

местоположение максимума и перегибов, но не на их значения; σ - на положение перегибов, значение максимума и перегибов. Это означает, что при изменении параметров кривая может быть более высокой, но при этом она сужается, прижимаясь к вертикали х=а. А может быть более плавной, но тогда перегибы раздвигаются от точки х=а. Однако во всех случаях площадь под кривой остается равной 1 (см. свойства плотности вероятности).

Можно вычислять вероятность попадания значений нормально

распределенной

СВ

 

на

заданный

промежуток

.

Получаем

β

β

 

 

 

 

 

 

 

сделаем замену z =

x a

 

тогда

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

(xa)2

 

 

 

x =σ z + a, dx =σσdz

 

 

 

Р(α Х β )=

f(x)dx=

 

 

 

 

 

 

 

 

 

 

 

dx=

 

 

 

=

σ

1

e

2σ2

x =α соответствует z =

α a

α

α

2 π

 

 

 

βσa

 

 

 

 

 

 

 

 

 

 

 

x = β соответствует z =

 

 

 

 

 

 

 

 

 

 

σ

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

25

26

 

 

βa

 

 

 

 

 

 

 

 

 

 

 

 

σ

 

 

2

 

 

 

 

 

1

αa

e

z

dz=Ф(

β a

)-Ф(

α a

).

=

2

2 π

 

σ

σ

 

σ

Известно правило трех сигм : вероятность попадания значений нормально распределенной СВ от интервала (а-3σ;а+3σ) практически равна 1. В самом деле, если в последнем равенстве положить α = а-3σ и β = а+3σ , мы получим Р((a 3σ) Х(a + 3σ) )=Ф(3)-Ф(-3)=2Ф(3)=1.

На практике этим пользуются наоборот : если экспериментальные данные, вычисленные с погрешностью σ попадают в основном в указанный интервал около среднего значения измеряемой величины, то такую величину вполне можно считать распределенной нормально.

Отметим несколько иных распределений.

Пусть Хi, i=1,2,…,n – нормально распределенные независимые СВ,

n

 

 

причем М(Хi)=а для всех i , а σ=1. Тогда величина Xi

2

, которую мы

i=1

 

 

обозначим χ2 (хи-квадрат) называется распределенной по закону хи-квадрат с

n степенями свободы.

 

 

 

 

n

 

Если

же

Хi

связаны

одним линейным

соотношением (например,

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

Xi

2

=nX) , то число степеней свободы равно k=n-1.

i=1

 

Плотность вероятности такой величины будет задана так

 

 

 

 

 

0

для

х0,

 

 

 

 

 

 

1

 

 

 

 

 

где Г(х)= t

x1 t

 

 

f(x)=

 

 

 

 

 

для

х>0 ,

e

dt -

гамма-функция. (значения

k

 

k

 

 

 

 

2

 

 

Г(

)

 

 

0

 

 

 

 

 

2

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

2

 

 

 

 

 

 

 

которой, в частности, подчиняется равенству Г(n+1)=n!). Это – пример однопараметрического распределения. При k→ ∞ распределение приближается к нормальному.

Пусть Z нормально распределенная СВ с M(Z)=0 и σ(Z)=1 (нормированная нормальная) , а V - независимая от Z распределенная по

закону хи-квадрат с k степенями свободы. Тогда Т= Z называется

V

k

t-распределением Стьюдента с k степенями свободы (Стьюдент – псевдоним В.Госсета). При k→ ∞ распределение быстро приближается к нормальному.

26