Добавил:
Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:

Учебное пособие мат. статистика+контрольные работы

.pdf
Скачиваний:
11
Добавлен:
30.11.2016
Размер:
811.62 Кб
Скачать

Вероятность события A, что при однократном бросании игральной кости выпадет ч¸тное число равна 1/2. Предположим, что нам стало известно, что произошло событие B: выпало число, большее тр¸х. При этой дополнительной информации мы должны изменить нашу оценку вероятности: действительно, наступление события B означает, что выпало одно из тр¸х чисел: 4;5;6, из которых соответствуют событию A два числа: 4 и 6. Отсюда, применяя классический метод, оцениваем вероятность выпадения ч¸тного числа как 2/3.

Условная вероятность наступления события A, если известно, что наступило событие B называется условной вероятностью и обозначается,

как P (AjB) или PB(A). В нашем примере P (A)=1=2, P (AjB)=2=3. Практический опыт применения теории вероятностей приводит к сле-

дующей формуле условной вероятности как отношения вероятности произведения событий к вероятности интересующего события:

P (AjB) = P (AB):

P (B)

Из этой формулы следует формула умножения вероятностей – вероятность произведения двух событий равна произведению вероятности одного из событий на условную вероятность второго события при условии выполнения первого:

P (AB) = P (B)P (AjB):

Если вероятность события A не меняется при наступлении или не наступлении другого события B, принимается, что событие A не зависит от события B.

Определение независимости событий обобщается на наборы большего, чем два события. Если есть несколько событий A1; A2; : : : ; An, эти события называются независимыми в совокупности, если

P (A1A2 : : : An) = P (A1)P (A2) : : : P (An):

Заметим, что если A не зависит от B, то: B не зависит от A;

¹

A не зависит от B;

¹

B не зависит от A,

попарная независимость событий не влеч¸т независимости в совокупности.

Пример 7. В урне (ящике) находятся 4 шара: красный, белый, синий и шар, содержащий все три цвета. Из урны вытаскивается один шар. Обозначим три события

11

A – вытащен шар с красным цветом,

 

 

 

 

B – вытащен шар с белым цветом,

 

 

 

 

C – вытащен шар с синим цветом.

 

 

 

 

Тогда, события A, B – попарно независимы, поскольку, например

 

 

P (A) = P (B) = 1=2 ; P (AB) = 1=4; P (AjB) =

P (AB)

=

1

;

P (B)

2

однако P (AjBC) = 1 – вероятность события A от наступления пары событий B и C зависит.

ФОРМУЛА БАЙЕСА

Формула Байеса предназначена для вычисления условной вероятности по безусловной. Она имеет вид:

P (AjB) = P (BjA)P (A):

P (B)

Как видно из этой формулы, условная вероятность получается из безусловной умножением на множитель, представляющий отношение условной вероятности события B при условии выполнения события A к безусловной вероятности события B.

Формула Байеса получается из очевидно справедливого соотношения

P (AB) = P (AjB)P (B) = P (BjA)P (A):

ФОРМУЛА ПОЛНОЙ ВЕРОЯТНОСТИ

Рассмотрим следующую ситуацию.

Интересующее нас событие A может произойти только одновременно с одним из группы событий B1; : : : ; Bn, которые обладают тем свойством, что при проведении опыта происходит одно и только одно событие Bi. Часто события Bi называются гипотезами. Они образуют полную группу событий в смысле, что при проведении опыта обязательно происходит только одно из событий Bi. В отличие от ранее введенного понятия полной группы событий, в случае применения формулы полной вероятности

12

не требуется, чтобы вероятности гипотез (событий Bi) были одинаковыми.

Событие A с помощью операций с событиями может быть представленно в виде суммы несовместных событий:

Xn

A = A \ Bi:

i=1

Применяя теорему сложения вероятностей несовместных событий, из этой формулы получаем:

Xn

P (A) = P (A \ Bi);

i=1

или, используя теорему умножения вероятностей:

Xn

P (A) = P (AjBi)P (Bi):

i=1

Это и есть формула полной вероятности.

СЛУЧАЙНЫЕ ВЕЛИЧИНЫ

Использование случайных величин позволяет рационализировать проведение расч¸тов со случайными событиями, благодаря замене длинного описания события некоторым числом. Если, например, перенумеровать гипотезы, вместо длинного описания, в ч¸м состоит гипотеза, можно называть просто число – номер гипотезы. Кроме того, рациональной нумеровкой событий можно обеспечить дополнительные возможности исследования благодаря группировке номеров в соответствии с близостью свойств событий.

Таким образом, случайная величина представляет набор чисел, каждому из которых присваивается определ¸нная вероятность появления в случае проведения опыта.

Обычно используются следующие обозначения: случайная величина зада¸тся большой буквой, например, X, а е¸ реализация (число, получившееся в результате опыта) обозначается соответствующей строчной буквой x.

Задать случайную величину означает задать вероятности е¸ возможных значений. Правило, определяющее вероятности случайных величин, называется законом распределения.

На практике, обычно, встречаются дискретные и непрерывные случайные величины.

13

ДИСКРЕТНЫЕ СЛУЧАЙНЫЕ ВЕЛИЧИНЫ

Случайная величина называется дискретной, если е¸ возможные реализации представляют конечное или сч¸тное число различных чисел. Дискретная случайная величина зада¸тся законом распределения, определяющим вероятности появления е¸ реализаций.

Пример 8. Результат однократного бросания игральной кости представляет набор шести чисел от единицы до шести. Закон распределения этой случайной величины может быть задан таблицей (рядом распределения), где каждому возможному значению случайной величины сопоставляется е¸ вероятность, равная 1/6, или формулой P (i) = 1=6; i = 1; : : : ; 6:.

Функция распределения F (x) (синонимы: интегральная функция распределения, интегральный закон распределения) – это ещ¸ одна форма задания случайной величины. По определению, функция F (x), зависящая от непрерывно меняющегося в интервале (¡1; 1) аргумента x, равна вероятности того, что значение случайной величины в результате опыта будет меньше x:

F (x) = P fX < xg:

Функция распределения представляет монотонно неубывающую функцию x, равную нулю при x = ¡1 и единице при x = 1.

С е¸ помощью можно вычислить вероятность попадания значений случайной величины X в некоторые области.

Пример 9. Вычислить вероятность попадания значения случайной величины X в полуинтервал ® · X < ¯.

Решение: События:

A = fX < ¯g; B = fX < ®g;

C = f® · X < ¯g

несовместны, прич¸м, A=B+C.

Применяя теорему сложения вероятностей несовместных событий и определение функции распределения, из этой формулы получаем:

F (¯) = F (®) + P f® · X < ¯);

отсюда получаем нужное:

P f® · X < ¯)g = F (¯) ¡ F (®):

14

НЕПРЕРЫВНЫЕ СЛУЧАЙНЫЕ ВЕЛИЧИНЫ. ПЛОТНОСТЬ РАСПРЕДЕЛЕНИЯ

Формально, случайная величина называется непрерывной, если е¸ функция распределения – непрерывная функция аргумента x. Возможные значения непрерывной случайной величины – это числа, находящиеся в областях числовой оси, представляющих отрезки или всю числовую ось. Для непрерывной случайной величины невозможно определить ряд распределения, поскольку вероятность того, что случайная величина примет конкретное числовое значение равна нулю. Действительно, из определения функции распределения следует соотношение

P fx · X < x + ¢xg = F (x + ¢x) ¡ F (x):

Устремляя ¢x к нулю, получаем, что вероятность того, что непрерывная случайная величина принимает конкретное значение всегда равна нулю.

Поэтому, непрерывная случайная величина, обычно, характеризуется плотностью распределения , с помощью которой можно определять вероятность того, что значения случайной величины принадлежат некоторой области числовой оси:

Z ¯

P f® < X < ¯g = f(x) dx;

®

где f(x) - плотность распределения случайной величины. Математически, плотность распределения определяется,

как производная функции распределения:

f(x) = F 0(x):

В свою очередь, функция распределения определяется по плотности распределения с помощью интегрирования:

Z x

F (x) = f(x) dx:

¡1

Свойства плотности распределения

² Плотность распределения – неотрицательная функция, f(x) ¸ 0, это условие следует из свойства неубывания функции распределения.

15

²Условие нормировки: R¡11 f(x) dx = 1. Условие нормировки вытекает из того факта, что полученное в результате проведенного опыта значение случайной величины X больше ¡1 и меньше 1.

Замечание Во многих практических приложениях значения непрерывной случайной величины принадлежат отрезку конечной длины. Тем не менее можно считать, что плотность распределения задана для значений аргумента, принадлежащих всей числовой оси, только плотность распределения, там где реализации случайной величины невозможны, равна нулю.

Резюмируя изложенное можно сказать, что дискретные случайные величины задаются рядом распределения или кусочно постоянной, неубывающей функцией распределения. Непрерывные случайные величины задаются плотностью распределения или непрерывной функцией распределения.

Теоретически возможны, и иногда встречаются на практике, случайные величины, которые могут принимать значения, принадлежащие областям числовой оси и также отдельные, изолированные значения. Для таких величин функция распределения представляет непрерывную функцию с отдельными точками разрыва.

Рассмотрим несколько примеров дискретных и непрерывных случайных величин. Примером дискретной случайной величины является результат неоднократного проведения некоторого опыта (Формула Бернулли).

ПОСЛЕДОВАТЕЛЬНОСТЬ НЕЗАВИСИМЫХ ИСПЫТАНИЙ. ФОРМУЛА БЕРНУЛЛИ. БИНОМИАЛЬНЫЙ ЗАКОН РАСПРЕДЕЛЕНИЯ

Все три названия описывают одну и ту же задачу: проводится n независимых опытов, в результате проведения одного опыта событие A происходит с вероятностью p. Спрашивается, какова вероятность того, что в результате проведения серии из n опытов событие A произойд¸т m раз?

Можно показать, что эта вероятность выражается формулой

Pn(m) = Cnmpmqn¡m;

(1)

где q = 1 ¡ p.

Эта формула была получена впервые Я.Бернулли.

16

Название биномиальное распределение объясняется тем, что формула напоминает члены формулы бинома (двучлена) Ньютона:

Xn

(a + b)n = Cnkakbn¡k:

k=0

Случайная величина: результат n однотипных опытов принимает дискретные значения m=0; 1; 2; : : : ; n с вероятностями, вычисляемыми по формуле (1).

Применение формулы (1) в ситуациях с большим числом опытов n затрудняется необходимостью вычисления биномиальных коэффициен-

тов

n!

 

Cnm =

;

 

m!(n ¡ m)!

 

 

зависящих от факториалов, представляющих быстро растущие функции. В этом случае используются приближенные формулы, составляющие содержание локальной и интегральной теорем Муавра-Лапласа.

Локальная теорема Муавра-Лапласа

p

 

 

(m)

1

 

 

e¡21 x2

или

 

P

(m)

'(x)

;

npqP

 

 

 

 

 

 

 

 

 

 

n

 

¼ p2¼

 

 

n

 

¼ p

npq

 

где

 

m ¡ np

 

 

 

 

1

 

 

 

 

 

 

 

x =

 

; '(x) =

 

e¡21 x2 :

 

 

 

 

 

 

 

 

 

 

 

 

 

 

p

npq

 

 

 

p2¼

 

 

 

 

Таблица значений функции '(x) имеется в ПРИЛОЖЕНИИ 1. Интегральная теорема Муавра-Лапласа

½

· pnpq

·

 

¾ ¼ p2¼

Za

 

m ¡ np

 

 

1

b

P a

 

 

 

 

b

 

 

e¡21 x2 dx:

Интеграл в правой части последней формулы табличный, он вычис-

ляется с помощью таблиц функции Лапласа

 

©(x) = p2¼ Z0

e¡

2

dt;

1

 

x

t2

 

таблицы которой есть во всех книгах по теории вероятностей и статистике, а также в ПРИЛОЖЕНИИ 1 в конце настоящего пособия.

Обе теоремы выведены с использованием формулы Стирлинга:

p

s! ¼ 2¼s ¢ sse¡s:

17

Интегральную формулу Муавра-Лапласа можно записать так:

P

(m

; m

)

¼

©(x

)

¡

©(x

);

где

x

=

mi ¡ np

; i = 1; 2:

p

 

 

n

1

2

 

2

 

1

 

i

 

npq

 

 

Пример 10. Вероятность брака при производстве изделия равна 0,005. Чему равна вероятность того, что в партии из 10000 изделий бракованных окажется

1.40 изделий,

2.Не более 70 изделий.

Решение: Точные формулы для решения задачи имеют вид:

 

 

P10000(40) = C40

 

 

 

 

0; 99599600; 00540;

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

10000

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

70

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

P

 

 

m

·

70

g

=

 

 

 

Cm

 

 

 

0; 99510000¡m0; 005m:

 

 

 

10000f

 

 

 

 

 

 

 

m=0

10000

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

X

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

Приближенный расч¸т первой вероятности да¸т:

 

 

 

 

 

 

p

 

 

=

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

7; 05;

 

 

 

 

 

 

 

 

 

 

 

 

 

 

104

0; 005 0; 995

 

 

 

 

 

 

 

 

npq

 

 

 

 

 

 

 

 

 

m

 

 

np

 

p40 ¢

104

 

 

0¢; 005 ¼

 

 

 

 

 

 

 

 

 

 

¡

 

 

 

 

=

 

 

 

¡

 

 

 

 

 

¢

 

 

 

¼ ¡

1; 42;

 

 

 

 

 

 

 

p

 

 

 

 

 

 

 

 

 

 

7; 05

 

 

 

 

 

 

 

 

 

npq

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

1

 

 

 

 

e¡

1;422

 

 

 

 

 

 

 

 

 

 

 

Pn(m) ¼

 

7; 05p

 

 

2

¼ 0; 0206:

 

 

 

 

 

 

 

 

2¼

 

 

(Точное значение этой вероятности равно: P10000(40) = 0; 0197).

P

 

m 70 = P

¡50

 

 

 

m ¡ np

<

 

 

20

=

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

10000f

· g

½

7; 05 ·

 

 

 

p

npq

 

 

7; 05

¾

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

m ¡ np

 

 

 

 

 

 

 

 

 

 

1

 

 

2;84

 

z2

 

 

= P

 

7; 09

 

 

 

< 2; 84 =

 

 

 

e

2 dz =

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

½¡

 

 

 

·

 

 

p

npq

 

 

 

 

 

 

 

 

 

¾

p2¼

Z¡7;09

¡

 

= ©(2; 84) ¡ ©(¡7; 09) = 0; 9975:

РАСПРЕДЕЛЕНИЕ ПУАССОНА

Распределение Пуассона получается из биномиального предельным переходом. Пусть n велико, а p мало, так, что pn=¸=const: Тогда:

Pnm =

 

¡

 

m!

¡

 

 

¡

 

nm µ1 ¡ n

n¡m

=

 

 

 

 

 

 

n(n

 

1) : : : (n

 

(m

 

 

1)) ¸m

 

¸

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

¡

 

 

 

 

¶µ

 

¡ n

 

µ

¡ n

 

 

 

 

m!

µ

 

¡ n¶ µ

 

n

 

 

 

 

 

 

=

¸m

1 1

 

1

 

: : : 1

 

 

m ¡ 1

 

1

¸

 

n

1

¸

¡m :

 

 

 

 

 

 

 

 

 

 

 

 

 

 

18

Отсюда видно, что

lim Pn(m) = ¸m e¡¸:

n!1 m!

Распределение Пуассона представляет пример ряда распределения дискретной случайной величины, принимающей бесконечное число значений: 0; 1; 2; : : : ; 1.

Значения вероятностей Pn(m) можно взять из таблицы ПРИЛОЖЕНИЯ 1.

Примерами непрерывных распределений являются:

Равномерное распределение

Случайная величина X имеет равномерное распределение на отрезке [a; b], если е¸ плотность распределения постоянная величина на этом

отрезке, а вне его равна нулю:

 

 

 

 

 

f(x) =

8

0 1

 

x 2= [a; b];

 

<

 

 

 

x 2 [a; b]:

 

b

¡

a

 

:

 

 

 

 

Экспоненциальное (показательное) распределение

Случайная величина X имеет экспоненциальное распределение с параметром ¸, если е¸ плотность распределения равна

(

0

x < 0;

f(x) =

x > 0:

¸e¡¸x

Распределение Коши

Плотность распределения Коши имеет вид:

1

f(x) = ¼(1 + x2):

МНОГОМЕРНЫЕ СЛУЧАЙНЫЕ ВЕЛИЧИНЫ

Во многих практических ситуациях случайные события характеризуются не одним числом, а несколькими числами (вектором). Отсюда возникает необходимость введения многомерных случайных величин (случайных векторов).

Дальше будут рассматриваться двумерные случайные величины, все приведенные формулы без труда обобщаются на n-мерные случайные величины.

19

Случайный вектор (X; Y ) – это две случайные величины X и Y , реализация которых (при проведении опыта) представляет числовой вектор (x; y). Закон распределения вектора (X; Y ) представляет правило (формулу, функцию, таблицу), задающую каждому возможному значению вектора (x; y) его вероятность P (x; y).

Свойство закона распределения: Сумма всех вероятностей равна единице.

Альтернативной характеристикой случайного вектора является функция распределения(интегральный закон распределения):

F (x; y) = P fX < x; Y < yg:

Свойства функции распределения 1. Функция распределения - неотрицательная, монотонно неубываю-

щая функция своих аргументов, 2. Значения функции распределения заключены между

нул¸м и единицей, F (¡1; y)=F (x; ¡1)=F (¡1; ¡1)=0,

F (1; 1)=1.

Как и одномерные случайные величины, многомерные случайные величины могут быть дискретными и непрерывными. Непрерывные случайные величины задаются функциями распределения, но чаще, что удобнее, – плотностью распределения. С помощью плотности распределения f(x; y) вероятность попадания случайной величины в область D плоскости вычисляется с помощью двойного интеграла:

 

 

P f(X; Y ) 2 Dg = ZZD

f(x; y) dx dy:

 

Свойства плотности распределения

 

 

 

1.

Плотность

распределения

f(x; y)

неотрицательная

функция,

 

 

 

 

2. Условие нормировки:

 

 

 

ZZ1

f(x; y) dx dy = 1:

¡1

Это условие означает, что при проведении опыта обязательно будет получено какое-то значение двумерной случайной величины.

20