Добавил:
Upload Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:

ТВиМС.Малярец.Егоршин 22.12.12

.pdf
Скачиваний:
10
Добавлен:
11.06.2015
Размер:
6.76 Mб
Скачать

До сих пор рассматривалась схема ис-

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

1

 

 

 

 

2

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

пытаний заданное число раз (задано n). Суще-

 

1

 

 

 

+

 

 

 

 

+

 

ствует

также схема испытаний

до первого

 

2

 

 

 

0

 

 

 

 

+

 

 

 

 

 

 

 

 

 

 

успеха (обе схемы предложены швейцарскими

 

3

 

 

 

 

 

+

 

 

 

 

 

 

 

 

 

4

 

 

 

+

 

 

 

 

0

 

математиками, братьями Бернулли).

 

 

 

 

 

 

 

 

 

 

 

 

5

 

 

 

0

 

 

 

 

0

 

Составим полную группу

несовместных

 

6

 

 

 

 

 

0

 

событий для схемы испытаний до первого успеха,

 

7

 

 

 

+

 

 

 

 

 

 

8

 

 

 

0

 

 

 

 

 

причем максимальное число испытаний ограни-

 

 

 

 

 

 

 

 

 

 

9

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

чим n

5 (рис. 2.9).

 

 

 

 

 

Рис. 2.8. Группа 3

3

 

 

 

 

 

 

 

 

 

Несложно убедиться, что

здесь

 

 

 

 

 

 

 

 

 

 

 

 

 

 

1

2

3

 

4

 

5

Р

сумма

вероятностей событий

полной

 

 

 

1

 

+

 

 

 

 

 

 

 

 

p

 

 

 

 

 

 

 

 

 

 

 

 

 

группы

действительно равна

единице.

2

 

+

 

 

 

 

 

 

pq

Рассмотрение этой задачи с неограни-

3

 

 

+

 

 

 

 

 

pq2

ченным числом испытаний приводит к

4

 

 

 

+

 

 

 

pq3

5

 

 

 

 

+

pq4

так называемому экспоненциальному

 

 

 

 

6

 

 

 

 

q

5

 

 

 

 

 

 

 

 

 

закону распределения.

 

 

Рис. 2.9. Испытания до 1-го успеха

Теорема о полной вероятности

Данная теорема применяется для решения часто встречающейся специфичной задачи, поэтому полезно запомнить конечный результат в виде отдельной теоремы. В рассматриваемой задаче событие А появляется совместно с одним из событий Нi , которые составляют полную группу несовместных событий и называются гипотезами. Даны вероятности гипотез p(Нi) и условные вероятности появления события А в присутствии каждой гипотезы p(A|Нi). Требуется найти вероятность события А.

Составим полную группу несовместных событий для случая 3-х гипотез Н1 ,

Н2 , Н3 , в присутствии которых может появиться

 

 

 

 

 

 

 

 

или не появиться событие А.

 

Н

 

А

Р

Эти три гипотезы сочетаются с двумя аль-

1

 

Н1

 

 

A

р(Н1)p(A|H1)

2

 

Н2

 

 

A

р(Н2)p(A|H2)

 

 

 

 

 

 

 

 

 

тернативами – А или A .

3

 

Н3

 

 

A

р(Н3)p(A|H3)

Всего событий в полной группе будет 3 2 = 6

 

 

 

4

 

Н1

 

 

 

 

 

 

 

 

A

 

(рис. 2.10).

 

 

 

 

5

 

Н2

 

 

 

 

 

 

 

 

A

 

 

 

 

 

 

 

 

Вероятности каждой комбинации полной

6

 

Н3

 

 

 

 

 

 

 

 

A

 

группы вычисляем по теореме умножения.

Рис. 2.10. Группа 3 2

 

21

В составленной таблице полной группы событий (см. рис. 2.10) только в первых трех случаях появляется событие А. Ввиду несовместности событий полной группы вычисленные вероятности надо сложить:

p(A) = p(H1)p(A|H1) + p(H2)p(A|H2) + p(H3)p(A|H3).

Полученная формула составляет суть теоремы о полной вероятности. Пример 1. Студент знает ответы на m билетов из n. Что для него выгод-

нее – сдавать экзамен первым или последним?

Если он идет сдавать первым, то вероятность успешной сдачи экзамена

равна pA mn .

Если же студент идет сдавать экзамен вторым, то предшествующий студент уже получил один билет. Какой именно? Имеют место две гипотезы: или

изъят билет «хороший» (вероятность этой гипотезы

 

pH

 

m ),

или изъят

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

1 n

 

 

 

 

 

 

«плохой» билет (вероятность этой гипотезы pH

 

 

n

m ).

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

2

 

n

 

 

 

 

 

 

 

 

Шансы второго студента на успех существенно зависят от того, какая ги-

потеза будет реализована в действительности:

pA|H

 

 

m 1 ;

 

pA|H

 

 

m

.

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

1

 

 

n 1

 

 

2

 

n 1

 

Согласно теореме о полной вероятности:

 

 

 

 

 

 

 

 

 

 

 

 

 

 

pA

pH

 

pA|H

 

pH

 

pA|H

m m 1 т m

m

m

 

m 1 n m

m .

 

 

 

 

 

 

 

 

 

 

1

1

2

 

 

n 1

 

 

 

 

 

 

 

 

 

2 n n 1

n

 

n 1 n

 

 

 

 

 

n

Шансы на успех для 2-го студента не изменились.

В качестве полезного упражнения предлагается вычислить полную вероятность успеха для 3-го студента.

Пример 2. На конвейер детали поступают от 3-х поставщиков. Первый поставщик (гипотеза H1) поставляет m1 деталей, второй (гипотеза H2) – m2 деталей, третий (гипотеза H3) – m3 деталей; всего n = m1 + m2 + m3 . Известны вероятности брака (доля бракованных изделий) для каждого поставщика: для 1-го поставщика она равна p(A | H1), для 2-го – p(A | H2), для 3-го – p(A | H3). Какова вероятность брака на конвейере?

Эту задачу можно решить, не обращаясь к теореме о полной вероятности (естественно, получим тот же самый результат). Найдем количество поставленных бракованных изделий от каждого поставщика: k1 = m1 p(A | H1), k2 = m2 p(A | H2), k3 = m3 p(A | H3), всего на конвейере будет k = k1 + k2 + k3 бракованных деталей.

Вычисляем вероятность брака на конвейере:

p A

k1 k2

k3

 

m1

 

p A|H

 

m2

 

p A|H

 

 

 

m3

p A|H

 

n

 

 

n

 

n

 

 

 

n

 

 

 

 

 

1

 

 

 

2

 

 

3

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

pH

p A|H

pH

2

p A|H

2

pH

3

p A|H

3

.

 

 

 

 

1

1

 

 

 

 

 

 

 

 

 

 

 

22

В результате опять получена формула полной вероятности. Из вышеприведенного выражения также следует, что полная вероятность р(А) есть среднее взвешенное из условных вероятностей р(A | Hi) с весовыми коэффициентами mi или р(Hi).

Теорема (формула) Байеса

Формула Байеса оценивает относительные вклады каждого члена в формуле полной вероятности. Так, для случая 3-х гипотез относительные вклады будут

 

pH

p A |H

 

pH

2

p A |H

2

 

pH

3

p A |H

3

 

равняться

1

1

,

 

 

,

 

 

. Как их правильно обозначить?

p A

 

 

p A

 

 

 

p A

 

 

 

 

 

 

 

 

 

 

 

Рассмотрим две эквивалентные формулы для расчета вероятности совместного появления двух событий А и Нi :

pAH

i

pA pH

| A

pH

i

pA|H

i

.

 

i

 

 

 

 

Отсюда следует, что

pH

p A |H

 

 

 

pH

2

p A |H

2

 

 

 

pH

3

p A |H

3

 

 

| A .

1

 

1

pH

 

| A ,

 

 

 

pH

 

| A ,

 

 

 

pH

 

p

A

1

 

 

p

A

 

2

 

 

p

A

 

3

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

Интерпретация для последней задачи с браком на конвейере:

Сборщик обнаружил на конвейере бракованную деталь (произошло событие А). Какова вероятность, что эту деталь изготовил 1-й поставщик? 2-й поставщик? 3-й? Если эти вероятности существенно различаются, то для уменьшения брака на конвейере следует, в первую очередь, принять меры к уменьшению брака (наладка оборудования) у поставщика с наибольшим значением pH i | A ; именно этот поставщик поставляет на конвейер наибольшее количество

бракованных изделий. Далеко не всегда это поставщик с максимальной долей брака pA | H i , так как такой поставщик может изготавливать небольшую партию

деталей и в сумме давать на конвейер значительно меньше бракованных изделий по сравнению с другими поставщиками.

Теорема сложения вероятностей

Эта теорема уже была рассмотрена при изучении геометрического способа определения вероятностей: «Вероятность появления одного из событий равна сумме их вероятностей минус вероятность их совместного появления», то есть рА+В = рА + рВ рАВ . Справедливость утверждения этой теоремы можно также установить и для классического способа определения вероятностей

(рис. 2.11).

23

Здесь общее количество элементарных исходов – n, из них в m исходах появляется признак А, в k исходах – признак В, в l исходах – совместно А и В.

Вероятности этих событий: pA = m/n , pB = k/n , pAB = l/n .

Нас интересует вероятность появления А или В, чему благоприятствуют m исходов с признаком А и дополнительно (k – l) исходов с признаком В. Отсю-

да

pA B

m k

l

pA

pB

pAB , что и требовалось доказать.

 

 

n

 

 

 

 

 

 

 

 

Пример.

Два стрелка с вероятностями поражения мишени р1 = 0,8 и

р2 = 0,7 одновременно стреляют по бутылке. Какова вероятность, что бутылка будет разбита? Иными словами, какова вероятность того, что хотя бы один из стрелков попадет в цель?

Эта задача уже рассматривалась выше. Теперь решим ее с помощью теоремы сложения (и теоремы умножения):

рА+В = рА + рВ рАВ = 0,8 + 0,7 – 0,8 0,7 = 1,5 – 0,56 = 0,94.

К сожалению, формулировка теоремы сложения усложняется с увеличением числа событий. Так, для трех событий А, В, С формула будет выглядеть так: рА+В+С = (рА + рВ + рС) – (рАВ + рАС + рВС) + рАВС , а для четырех событий А, В, С, D еще сложнее:

рА+В+С+D = (рА + рВ + рС + рD) – (рАВ + рАС + рАD + рВС + рBD + рСD) +

+ (рАВС + рАBD + рАCD + рBCD) – рАBCD .

Освоив методику составления полной группы несовместных событий, можно никогда не пользоваться столь неудобными выражениями.

Принцип практической невозможности редких событий

Как уже указывалось выше, человек с детства усваивает некоторые правила поведения в этом мире, позволяющие ему выживать. Естественно, он может ошибаться, но разные ошибки приводят к разным последствиям. На основе многовекового опыта человек сформулировал для себя скептическое отноше-

24

ние к случайному появлению редких событий, которые могут произойти с вероятностью менее 5 % . Люди готовы с интересом обсуждать эти редкие события, но только когда они их не затрагивают. Однако, если неожиданное неприятное событие происходит именно с ними, они склонны искать виновника и, как правило, находят его. Так, игроки сразу выявляют шулера, у которого при бросании с виду обычной игральной кости три раза выпала шестерка, так

как вероятность этого события

1

1

менее 0,5 % . Считается, что при брос-

 

 

 

63

216

 

ках монеты герб не может случайно появиться 5 раз подряд, поскольку вероят-

ность этого события

1

1

менее 3 % . Здесь многое зависит от терпимости

 

 

 

25

32

 

индивида, поскольку надо выбирать между ошибкой «упустить виновного» и ошибкой «наказать невиновного». Однако уже в ГОСТ-е законодательно установлена нижняя граница терпимости 1 % – если произошло событие с вероятностью менее 1 % , оно не признается случайным и требуется искать причину.

Вопросы для самопроверки

1.Сформулируйте теорему умножения вероятностей для независимых событий.

2.Сформулируйте теорему умножения вероятностей в общем виде.

3.Поясните, что такое условная вероятность.

4.Изложите краткую классификацию событий.

5.Сформулируйте теорему сложения вероятностей для случая двух событий. Сформулируйте теорему о полной вероятности.

6.Объясните смысл формулы Байеса.

7. Как составить полную группу несовместных событий 2 2 2?

8. Как составить полную группу несовместных событий при испытаниях до первого успеха? Как найти вероятность хотя бы одного успеха?

9. Приведите и объясните формулу Бернулли.

10. Сформулируйте принцип невозможности редких событий.

25

3. Случайные величины

«Случайная величина» – очередное неопределяемое понятие, которое только демонстрируется на примерах. Так, известно, что при бросании игральной кости появляется одна из граней I, II, III, IV, V, VI. Но можно сказать и подругому: «Число выпадающих очков есть случайная величина, которая может принимать одно из значений 1, 2, 3, 4, 5, 6».

Обычно принято обозначать случайную величину прописными рукописными буквами, например X (или греческими, например ), а ее значения – строчными латинскими буквами х1 , х2 , х3 и т. д.

Если все возможные значения случайной величины можно заранее перечислить, то такую случайную величину называют дискретной.

Если же возможные значения заполняют сплошь некоторый интервал, то такую случайную величину называют непрерывной (в математике есть строгое определение непрерывной функции, на основе этого можно сформулировать более строгое определение непрерывной случайной величины).

Все возможные значения случайной величины составляют полную группу несовместных событий.

Некоторые значения случайной величины появляются чаще других, некоторые – очень редко. Иными словами, разные значения случайной величины появляются с разной вероятностью.

Соответствие между отдельными значениями случайной величины и вероятностью их появления (функциональная зависимость) называют законом распределения данной случайной величины.

Дискретная случайная величина

Для этого частного случая можно более просто изложить некоторые понятия, связанные со случайными величинами.

Закон распределения дискретной случай-

X

х1

х2

х3

хk

ной величины может быть задан в табличной

Р(х)

p1

p2

p3

pk

форме в виде «ряда распределения» (рис. 3.1). Рис. 3.1. Ряд распределения Все значения случайной величины образуют

полную группу несовместных событий, поэтому сумма их вероятностей должна равняться единице: p1 + p2 + p3 … + pk = 1. Чаще всего у дискретной случайной величины число возможных значений (k) конечное. Однако бывают также

26

дискретные случайные величины с бесконечным (но счетным) числом возможных значений.

Так, в схеме испытаний до первого успеха случайным является число испытаний, которое в принципе может быть сколь угодно велико.

В этой задаче получается бесконечный

X

 

 

1

 

2

 

 

3

4

ряд распределения (рис. 3.2). Тут должна

Р(х)

 

 

p

 

pq

 

 

pq2

pq3

равняться единице бесконечная сумма веро-

Рис. 3.2. Бесконечный ряд

ятностей, убывающих

по геометрической

 

 

 

распределения

 

 

 

 

 

 

 

прогрессии:

 

 

 

 

 

 

 

 

 

 

 

 

 

p pq pq2

pq3 p 1 q q2

q3

 

 

 

p

p

1.

 

 

 

 

 

 

 

 

 

1

q

p

 

 

 

 

 

 

 

 

 

 

 

Закон распределения может

 

 

 

 

 

 

 

 

 

 

 

 

быть представлен графиче-

 

 

 

 

 

 

 

 

 

 

 

 

ски, причем условились для

 

 

 

 

 

 

 

 

 

 

 

 

дискретной случайной

ве-

 

 

 

 

 

 

 

 

 

 

 

 

личины соединять отдельные точки (хi , pi) отрезками прямых. В результате появляется полигон (многоугольник) вероятностей, который дает наглядную информацию об особенностях распределения.

Так, на рис. 3.3 изображено двухвершинное распределение, из чего специалист делает вывод о не-

однородности совокупности – здесь явно имеет место смесь двух случайных величин с разными характеристиками.

Числовые характеристики случайных величин

Числовые характеристики предназначены для количественного описания различий между случайными величинами. Они подразделяются на следующие группы:

характеристики положения, к которым относятся мода, медиана и математическое ожидание;

характеристики разброса, к которым относятся размах, дисперсия, среднее квадратическое отклонение, коэффициент вариации;

27

характеристики формы, к которым относятся моменты распределения, коэффициенты асимметрии и плосковершинности.

Для непрерывной случайной величины используются еще так называемые квантили (одним из квантилей является медиана). Эти характеристики рассмотрим позже при изучении непрерывных случайных величин.

 

Характеристики положения

Мода (Мо)

это

наивероятнейшее

значение случайной величины

Р(х = Мо) = max{pi}.

Для

одновершинного

(одномодального) распределения

мода (значение хi с наибольшей вероятностью pi) является наглядной характеристикой положения. Как видим, эта мера не является универсальной.

Основной же характеристикой положения является математическое ожидание.

Математическое ожидание – это центр, вокруг которого группируются значения случайной величины, «среднее» ее значение. На рис. 3.3 показана смесь двух одновершинных распределений (их полигоны изображены тонкими линиями). Видно, что значения первой случайной величины группируются вокруг значения М1 = 5, а второй – вокруг М2 = 12,5.

Для того чтобы понять, как следует правильно вычислять эту характеристику, рассмотрим пример организации лотереи.

Пусть выпущено n = 100 лотерейных билетов. Разыгрываются денежные призы от 1 грн до 10 грн.

Выигрыши (значения случайной величины X) и соответствующие количества выигрышных билетов (m) перечислены в таб-

X

0

1

2

5

10

m

50

30

15

4

1

p

0,5

0,3

0,15

0,04

0,01

лице на рис. 3.4; в последней ее строке вы-

Рис. 3.4. Пример лотереи

числены вероятности выигрышей. Какова

 

должна быть цена одного билета? Каков ожидаемый средний выигрыш на один билет?

Для ответа на этот вопрос подсчитаем общую сумму выигрышей и разделим ее на количество билетов:

M x

m1x1 m2 x2

m3 x3

m4 x4 m5 x5

 

50 0 30 1 15 2 4 5 1 10

0,9 .

m1

m2

m3

m4 m5

100

 

 

Стоимость одного билета (ожидаемый средний выигрыш на один билет) оказалась равной 90 коп. Такого выигрыша в таблице нет, то есть математическое ожидание – условная величина. Формула, которую мы получили для этого частного случая случайной величины, – это формула для вычисления среднего

28

взвешенного, где в качестве весов выступают частоты mi или вероятности выигрышей pi . Эта же формула применяется для определения центра тяжести системы грузов mi , расположенных в точках с абсциссами хi , или центра тяжести полигона.

Полученную формулу можно преобразовать к виду:

М(х) = х1 р1 + х2 р2 + х3 р3 + х4 р4 + х5 р5 = = 0 0,5 + 1 0,3 + 2 0,15 + 5 0,04 + 10 0,01 = 0,9.

Для общего случая дискретной случайной величины имеем:

 

k

a M x

xi pi ,

i

1

где k может быть бесконечным (k = ). Математическое ожидание – это число, а обозначение М(х) похоже на обозначение функции. Предлагаем там, где это возможно, обозначать математическое ожидание буквой а.

Кстати, в англо-американской литературе математическое ожидание обозначается Е(х) – от слова expect – ожидание.

Для симметричных одномодальных распределений математическое ожидание совпадает с модой (и медианой).

Характеристики разброса

Одной характеристики положения недостаточно для представления о случайной величине. Например, чем отличается продукция мастера от продукции ученика? Они оба придерживаются одного задания и намерены изготавливать детали строго по чертежу. Но большая часть продукции ученика является браком, так как размеры его деталей часто выходят за пределы допуска; в то же время практически вся продукция мастера принимается. Таким образом, продукция мастера и ученика отличается разной изменчивостью.

Наиболее простой характеристикой изменчивости (разброса, рассеивания) является размах – разность между максимальным и минимальным значениями случайной величины: d = xmax – xmin . К сожалению, размах – нестабильная характеристика, она зависит только от предельных значений величины, которые имеют малую вероятность появления (и в малой партии могут не появиться). Основными же характеристиками разброса являются дисперсия и среднее квадратическое отклонение.

Для каждой детали имеется какое-то отклонение от заданного размера (центра группировки, математического ожидания): (xi – a). Большие отклонения встречаются редко, а малые – значительно чаще. Возникает идея характеризовать меру изменчивости средней величиной отклонения:

29

М(x – a) = (xi – a) pi . Ожидается, чем больше среднее отклонение, тем будет больше случайная изменчивость, тем должен быть большим разброс данных вокруг центра а. Однако, как будет показано далее, среднее отклонение оказывалось всегда равным нулю (и для мастера, и для ученика) из-за разных знаков отклонений. Для того чтобы погасить знаки, все отклонения предварительно возводят в квадрат и находят средний квадрат отклонения: D(x) = М(x – a)2 = (xi – a)2 pi . Эта характеристика называется дисперсией (в переводе – разброс). Вычислим ее на примере задачи о лотерее, где уже найдено математическое ожидание а = 0,9:

D(x) = (0–0,9)2 0,5 + (1–0,9)2 0,3 + (2–0,9)2 0,15 + (5–0,9)2 0,04 +

+ (10–0,9)2 0,01 =0,81 0,5 + 0,01 0,3 + 1,21 0,15 + 16,81 0,04+ +82,81 0,01= 2,09.

Однако не очень удобно, что размерность дисперсии равна квадрату размерности случайной величины. Поэтому извлекают корень квадратный из дисперсии и полученную характеристику называют средним квадратическим от-

клонением;

по

традиции ее

обозначают греческой буквой сигма:

 

 

 

 

 

 

 

 

 

x

M x

a 2

 

x

a 2 p .

Обычное среднее отклонение (взвешенное

 

 

 

 

i

i

 

среднее) равно нулю, поэтому используют среднее квадратическое (взвешенное с весами pi). Вместо понятия «среднее квадратическое отклонение» часто употребляют выражения «стандартное отклонение» и даже «стандартная ошибка». Но надо сразу предостеречь против последнего словосочетания. За рубежом различают термины Standard Deviation (стандартное отклонение) и

Standard Error (стандартная ошибка). Последняя величина равна

 

x

 

, и в оте-

 

 

 

n

 

 

 

 

чественной литературе называется «ошибкой среднего» (о ней будет сказано

 

 

 

позже). Для примера с лотереей

2,09 1,446 .

x

Иногда увеличение среднего размера (математического ожидания) сопровождается одновременным увеличением разброса. Для характеристики изменчивости таких случайных величин может оказаться полезным коэффициент

вариации, который равен vx

x

100%

. Если коэффициент вариации ока-

M x

 

 

 

зывается меньшим 2 % , то такую случайную величину считают константой (ее изменчивостью можно пренебречь). Сверху коэффициент вариации не ограни-

чен. Для примера с лотереей vx

1,446

100% 160,6% .

 

0,9

 

 

30