УМК по ТВ и МС
.pdfP(C) = P( A + B) = P(A) + P(B) = 0,351 + 0,458 = 0,809 .
Пример 1.12. Для получения кредита предприятие обратилось к трем банкам. Статистические исследования показали, что вероятности выделения кредита этими банками соответственно равны р1 = 0,5, р2 = 0,4 и р3 = 0,9. Банки выделяют кредит независимо друг от друга и, если примут решение о его выделении, то в размере: первый банк – 160 млн. руб., второй – 40 млн. руб., третий
– 200 млн. руб. Найти вероятности того, что предприятие получит кредит в размере: а) 200 млн. руб.; б) не менее 240 млн. руб.; в) любом.
Решение. Введем события: А – первый банк выделит кредит; В – второй банк выделит кредит; С – третий банк выделит кредит; D – предприятие получит кредит в размере 200 млн. руб.; E – предприятие получит кредит в размере не менее 240 млн. руб.; F – предприятие получит кредит.
а) Т.к. D = A B, то
P(D) = 0,5 0,4 (1 – 0,9) + (1 – 0,5)(1 – 0,4)0,9 = 0,02 + 0,27 = 0,29.
б) Т.к. E = A B C + A B C + A B C , то
P(E) = 0,5 (1 – 0,4)0,9 + (1 – 0,5)0,4 0,9 + 0,5 0,4 0,9 = 0,63.
в) Т.к. F = A B C , то P(F) = 1 – P( A B C ) = 1 – 0,5 0,6 0,1 = 0,97.
1.9. Формула полной вероятности и формула Байеса
Определение 1.6. Набор событий B1, … , Bn называется полной группой не-
совместных событий или разбиением пространства Ω, если
∑in=1 Bi = Ω и i ≠ j Bi I B j = .
Очевидно, что любые два противоположных события A и A образуют полную группу несовместных событий, т.е. P(A + A) = P(A) + P(A) = P(Ω) =1.
Рис 1.7. Разбиение пространства Ω.
Предложение 1.5. (Формула полной вероятности). Пусть события
B1, … , Bn образуют разбиение. Тогда P( A) = ∑in=1 P(A/ Bi )P(Bi ) . Доказательство. Справедливо представление A = AB1+K+ ABn . Следова-
тельно, P( A) = P( AB1) + K+ P( ABn ) . Для завершения доказательства достаточно применить формулу произведения вероятностей (1.4).
21
Предложение 1.6. (Формула Байеса). Пусть B1, … , Bn – разбиение. Тогда
P(Bk / A) = |
P(A/ Bk )P(Bk ) |
. # |
||
∑n |
P(A/ Bi )P(Bi ) |
|||
|
|
|||
|
i=1 |
|
|
Замечание 1.5. События, образующие разбиение пространства Ω в формулах полной вероятности и Байеса часто называют гипотезами и обозначают Hi.
Пример 1.13. Есть три завода, производящих одну и ту же продукцию. При этом 1-й завод производит 25%, 2-й завод − 35% и 3-й завод − 40% всей производимой продукции. Брак составляет 5% от продукции 1-го завода, 3% от продукции 2-го и 4% от продукции 3-го завода.
Вся продукция смешивается и поступает в продажу. Найти: а) вероятность купить бракованное изделие; б) условную вероятность того, что купленное изделие изготовлено 1-м заводом, если это изделие бракованное.
Решение. Обозначим событие A – «куплено бракованное изделие». Так как производят продукцию три завода, то выдвинем три гипотезы:
H1 – изделие изготовлено первым заводом;
H2 – изделие изготовлено вторым заводом;
H3 – изделие изготовлено третьим заводом.
Найдем вероятности гипотез: P(H1) = 0,25; P(H2) = 0,35; P(H3) = 0,4. Проверим:
P(H1) + P(H2) + P(H3) = 0,25 + 0,35 + 0,4 = 1.
Найдем условные вероятности события A относительно выдвинутых гипотез:
P(A/H1) = 0,05; P(A/H1) = 0,03; P(A/H1) = 0,04.
Определим вероятность события A по формуле полной вероятности:
P(A) = ∑in=1 P(A/ Hi )P(Hi ) = 0,05 0,25 + 0,03 0,35 + 0,04 0,4 = 0,039 .
Вычислим долю первого завода в общем количестве бракованных изделий, т.е. переоценим гипотезу H1 по формуле Байеса:
P(H1 / A) = |
P(A/ H1 )P(H1 ) |
= |
P(A/ H1 )P(H1 ) |
= |
0,05 0,25 |
=0,321. |
|
|
P(A) |
0,039 |
|||||
|
∑3 |
P(A/ Hi )P(Hi ) |
|
|
|
||
|
i=1 |
|
|
|
|
|
|
Пример 1.14. Турист, заблудившись в лесу, вышел на полянку, от которой в разные стороны ведут 5 дорог. Если он пойдет по первой дороге, то вероятность выхода из леса в течение часа равна 0,6; если по второй – 0,3; если по третьей – 0,2; если по четвертой – 0,1; если по пятой – 0,1. Какова вероятность того, что турист пошел по первой дороге, если через час он вышел из леса?
Решение. В данном случае событие A – «турист через час он вышел из леса» произошло. Поэтому используем формулу Байеса. Искомая вероятность того, что турист пошел по первой дороге, если через час он вышел из леса, равна
P(H1 |
/ A) = |
P(H1 )P(A/ H1 ) |
, |
||
∑5 |
P(Hi )P(A/ Hi ) |
||||
|
|
|
|||
|
|
i=1 |
|
|
где Hi – гипотеза «турист пойдет по i-й дороге, i = 1, 2, 3, 4, 5. Очевидно, что все пять гипотез равновероятны, т.е.
P(H1 ) = P(H2 ) = P(H3 ) = P(H4 ) = P(H5 ) =0,2 .
22
Значения условных вероятностей даны в условии задачи:
P( A / H1 ) = 0,6; P( A / H 2 ) = 0,3; P( A / H3 ) = 0,2; P( A / H 4 ) = P( A / H5 ) = 0,1.
Отсюда имеем:
P(H1 |
/ A) = |
|
0,2 |
0,6 |
|
|
= |
||
0,2 |
0,6 + 0,2 0,3 + 0,2 |
0,2 + |
0,2 0,1 + 0,2 0,1 |
||||||
|
|
|
|
||||||
|
= |
|
|
0,6 |
= 0,6 |
= 0,462. |
|
|
|
|
|
0,6 |
+ 0,3 + 0,2 + 0,1 + 0,1 |
|
|
||||
|
|
|
1,3 |
|
|
|
1.10. Независимость событий
Определение 1.7. |
События |
A и |
B называются |
независимыми, если |
|||||||||||||||||||||||
P( AB) = P(A) P(B) . |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|||||||
Замечание 1.6. Если A и B независимы и P(B) > 0, то |
|
|
|
||||||||||||||||||||||||
P( A / B) = |
P( AB) |
= |
P( A)P(B) |
= P( A) . |
|
|
|
|
|
|
|
|
|
|
|||||||||||||
|
|
|
|
P(B) |
|
P(B) |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
||||||
Аналогично, если A и B независимы и P(A) > 0, то P(B / A) = P(B) . |
|||||||||||||||||||||||||||
Пример 1.15. Бросание двух игральных костей: |
|
|
|
|
|
|
|
|
|
|
|||||||||||||||||
Ω = {(a1, a2): a1, a2 {1, … , 6}}, |Ω| = 36, |
|
|
|
|
|
|
|
|
|
|
|
|
|||||||||||||||
A = {на первой кости выпала «6»}, |
|
|
|
|
|
|
|
|
|
|
|
|
|||||||||||||||
B = {на второй кости выпала «6»}, |
|
|
|
|
|
|
|
|
|
|
|
|
|||||||||||||||
A = {(6, 1), (6, 2), … , (6, 6)}, |A| = 6, |
|
|
|
|
|
|
|
|
|
|
|
|
|||||||||||||||
B = {(1, 6), (2, 6), … , (6, 6)}, |B| = 6, |
|
|
|
|
|
|
|
|
|
|
|
|
|||||||||||||||
AB = {(6, 6)}, |AB| = 1. |
|
|
|
|
|
|
|
|
|
|
|
AB |
|
|
|
|
|
|
|||||||||
P(A) = |
|
A |
|
= |
|
6 |
= |
1 |
, P(B) = |
|
B |
|
= |
6 |
= |
1 , P(AB) = |
|
|
|
|
|
= |
1 |
. |
|||
|
|
|
|
|
|
|
|||||||||||||||||||||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
||||||||||||||
|
Ω |
36 |
6 |
|
Ω |
|
|
|
|
Ω |
|
|
|
|
|
||||||||||||
|
|
|
|
|
|
36 |
|
6 |
|
|
|
|
|
36 |
|
||||||||||||
Таким образом, |
P( AB) = P( A) P(B) , и события A и B – независимы. |
Пример 1.16. Студент сдает три экзамена. Вероятность успешной сдачи первого экзамена 0,9, второго – 0,65, третьего – 0,35. Найти вероятность того, что он не сдаст хотя бы один экзамен.
Решение. Обозначим A – событие «студент не сдал хотя бы один экзамен».
Тогда P(A) =1 − P( A) ,
где A – противоположное событие «студент сдал все экзамены». Поскольку сдача каждого экзамена не зависит от других экзаменов, то
P( A) =1 − P(A) =1 − 0,9 0,65 0,35 = 0,7953.
Предложение 1.7. Известно, что события A и B независимы. Тогда: A и B.
– независимы, A и B – независимы, A и B – независимы.
23
Предложение 1.8. Если события A и B несовместны, то они независимы, если и только если P(A) = 0 или P(B) = 0.
1.11. Статистическая независимость
Теперь распространим понятие независимости на случай произвольного конечного набора событий A1, … , An. Обсудим два способа распространения
определения 1.7 – понятия взаимной независимости и попарной независимости.
Определение 1.8. События A1, … , An называются независимыми в совокуп-
ности (взаимно |
|
независимыми), если |
для всех k (1 ≤ k ≤ n) и для любых |
||
1 ≤ i1 < … < ik ≤ n |
верно |
|
|
||
P(Ai KAi |
) |
= P(Ai )KP(Ai |
) . |
(1.5) |
|
1 |
k |
|
1 |
k |
|
Определение 1.9. События A1, … , An называются попарно независимыми,
если i ≠ j P(Ai Aj ) = P( Ai ) P(Aj ) .
Замечание 1.7. Понятия взаимной независимости и попарной независимости набора событий не являются равносильными, а именно,
Первая импликация вытекает из определений 1.8 и 1.9, достаточно взять в равенстве (1.5) n = 2. Следующие два примера показывают, что события могут быть попарно независимыми, но зависимыми в совокупности.
Пример 1.17. Производится бросание двух костей. Рассмотрим события: A = {на первой кости выпало нечетное число очков},
B = {на второй кости выпало нечетное число очков}, C = {сумма очков – нечетна}.
События A, B, C – попарно независимые. Действительно,
P( A) = P(B) = P(C) =1/ 2 , P( AB) = P( AC) = P(BC) =1/ 4 .
Но независимости в совокупности нет, т.к.
ABC = P( ABC) =0 ≠ |
1 |
= P( A)P(B)P(C) . |
|
8 |
|
Глава 2. Дискретные случайные величины
Для дальнейшего изложения необходимо ввести понятие дискретного вероятностного пространства. Мы будем называть дискретным вероятностным пространством либо конечное вероятностное пространство, определенное в § 1.2, либо счетное вероятностное пространство, которое мы определим ниже.
24
2.1. Счетное вероятностное пространство
Пусть Ω – счетное множество, то есть, бесконечное множество, элементы которого могут быть занумерованы натуральными числами:
Ω={ω1, ω2 ,...,ωn ,...} ={ωi}i N ,
афункция P, зависящая от ω Ω, удовлетворяет условиям:
P(ω) ≥ 0, ∑ P(ω) = ∑i∞=1 P(ωi ) =1.
ω Ω
В этом случае говорят, что (Ω, P) – счетное вероятностное пространство.
Как и прежде, событиями будем называть любые подмножества множества элементарных исходов Ω: A Ω.
2.2. Дискретные случайные величины
Определение 2.1. Случайной величиной назовем произвольную функцию на множестве элементарных исходов: ξ: Ω → R, ξ = ξ(ω). Случайные величины обозначают греческими или заглавными латинскими буквами.
Множества вида {ω: ξ(ω) = x} Ω являются событиями. Далее для них будем использовать более короткое обозначение: {ξ = x} =& {ω: ξ(ω) = x}.
Так как Ω – не более чем счетно, то случайная величина ξ принимает не более чем счетное число значений: x1, x2, … , xk, … .
Определение 2.2. Распределением дискретной случайной величины ξ назовем таблицу
|
ξ |
x1 |
x2 |
|
… |
|
xk |
… |
|
|
P |
p1 |
p2 |
|
… |
|
pk |
… |
|
где pk = P{ω: ξ(ω) = xk } = P{ξ = xk }. |
|
|
|
|
|
||||
Замечание 2.1. Если k ≠ l, то {ξ = xk} |
∩ {ξ = xl} = . Более того, |
||||||||
U{ω: ξ(ω) = xk } = Ω. Следовательно, ∑ pk =1. |
|
|
|
||||||
k |
|
|
k |
|
|
|
|
|
2.3.Схема Бернулли
2.3.1.Распределение числа успехов в n испытаниях
Определение 2.3. Схемой Бернулли называется последовательность независимых испытаний, в каждом из которых возможны лишь два исхода – «успех»
и«неудача», при этом «успех» в одном испытании происходит с вероятностью
р[0, 1], «неудача» – с вероятностью q = 1 – р.
25
Определение 2.4. Бернуллиевской называют случайную величину, принимающую два значения:
1, |
с вероятностью p, |
ξi = |
с вероятностью 1 – p. |
0, |
Таким образом, ее распределению соответствует таблица
ξ |
0 |
1 |
P |
1 − p |
p |
Предложение 2.1. (Формула Бернулли). Обозначим, через vn число успехов в n испытаниях схемы Бернулли. Тогда для любого k = 0, 1, ... , n
P(vn = k) = Pn (k) = Cnk pk (1 − p)n−k = Cnk pk qn−k .
Доказательство. Событие А = {vп = k} означает, что в п испытаниях схемы Бернулли произошло ровно k успехов (и, соответственно, (n − k) неуспехов). Рассмотрим один из благоприятствующих событию A элементарных исходов:
(u,u,...u,n,n,....n ).
123 14243
k l−k
Т.к. испытания независимы, вероятность такого элементарного исхода (первые k испытаний завершились успехом, остальные неудачей) равна pk(1−p)n−k. Другие благоприятствующие событию A элементарные исходы отличаются от рассмотренного выше лишь расположением k успехов на n местах. Есть ровно Cnk способов расположить k успехов на n местах. Поэтому событие A состоит из Cnk элементарных исходов, вероятность каждого из которых равна pk(1−p)n−k.
Определение 2.5. Набор чисел P(vn = k) = Ckpk(1−p)n−k, k = 0, 1, … ,n назы-
вается биномиальным распределением вероятностей и обозначается Bn,p или
B(n, p). Случайную величину с этим законом распределения называют биномиальной. Она означает, что в п испытаниях схемы Бернулли произошло ровно k успехов и (n−k) неуспехов.
Биномиальному распределению вероятностей соответствует таблица
νn |
0 |
1 |
… |
k |
… |
n |
P |
(1 − p)n |
np(1 − p)n−1 |
… |
Cnk pk (1− p)n−k |
… |
pn |
Пример 2.1. В магазине 5 холодильников. Вероятность выхода из строя каждого холодильника в течение года равна 0,2. Найти вероятность того, что в течение года ремонта потребует: 1) 4 холодильника; 2) не менее 2 холодильников; 3) не более 1 холодильника; 4) не менее 1 холодильника.
Решение. Поскольку все холодильники имеют одинаковую вероятность выхода из строя в течение года p = 0,2, то используем формулу Бернулли.
1) Вероятность того, что в течение года ремонта потребуют 4 холодильника, равна
P5 (k = 4) = C54 p4 (1 − p) = 5 0,24 0,8 = 0,0064 .
26
2) Вероятность того, что в течение года ремонта потребуют не менее 2 холодильников, равна
P5 (k ≥ 2) =1 − P5 (k < 2) =1 − P5 (k = 0) − P5 (k =1) =
=1 − C50 p0 (1 − p)5 − C51 p1 (1 − p)4 =1 −1 0,20 0,85 − 5 0,21 0,84 = 0,2627 .
3) Вероятность того, что в течение года ремонта потребует не более 1 холодильника, равна
P5 (k ≤1) =1 − P5 (k ≥ 2) =1 − 0,2627 = 0,7373.
4) Вероятность того, что в течение года ремонта потребует не менее 1 холодильника, равна
P5 (k ≥1) =1 − P5 (k <1) =1 − P5 (k = 0) =
=1 −C50 p0 (1 − p)5 =1 −1 0,20 0,85 = 10000067232 = 0,6723 .
Пример 2.2. Вероятность того, что изделие является дефектным, равна 0,1. Сколько надо выбрать изделий, чтобы среди них с вероятностью более 0,96 оказалось хотя бы одно бездефектное?
Решение. По условию задачи требуется найти минимальное число n, для которого выполнялось бы неравенство Pn (k ≥1) > 0,96 . Данное неравенство
равносильно тому, что P (k = 0) |
= C 0 pn q0 <1−0,96 = 0,04 . |
|
||||
|
n |
|
n |
|
||
Подставив |
p = 0,9, q = 0,1 |
в последнее неравенство, и, |
учтя, что Cn0 =1, |
|||
имеем: P (k = 0) |
= C 0 pn q0 =1 0,9n 0,10 = 0,9n < 0,04. |
|
||||
n |
n |
|
|
|
||
Прологарифмируем обе части полученного неравенства: |
|
|||||
n ln 0,9 > ln 0,04 n > |
ln 0,04 |
= −3,2189 = 30,551 nmin |
= 31. |
|||
ln 0,9 |
||||||
|
|
− 0,1054 |
|
Таким образом, надо выбрать не менее чем 31 изделие, чтобы среди них с вероятностью более 0,96 оказалось хотя бы одно бездефектное
Пример 2.3. Адвокат выигрывает в суде в среднем 70% дел. Найдите вероятность того, что он из 8 дел выиграет больше половины.
Решение. По условию задач требуется определить вероятность P8 (k > 4) ,
где k – количество выигранных дел.
Поскольку вероятность выигрыша дела известна ( p = 0,7 ), то q =1 − p = 0,3 . Отсюда по формуле Бернулли имеем:
P8 (k > 4) = P8 (k = 5) + P8 (k = 6) + P8 (k = 7) + P8 (k = 8) =
= C85 0,75 0,33 + C86 0,76 0,32 + C87 0,77 0,31 + C88 0,78 0,30 = = 0,2450 + 0,2965 + 0,1776 + 0,0576 = 0,797 .
Таким образом, вероятность того, что адвокат из 8 дел выиграет больше половины, равна 0,797.
27
Определение 2.6. Будем говорить, что случайная величина Π имеет пуас-
соновское распределение с параметром λ > 0, если она принимает целые неот-
рицательные значения со следующими вероятностями:
P{Π = k}= |
λk |
e−λ , k = 0, 1, .... |
|
k! |
|
2.3.2. Наиболее вероятное число успехов
По формуле Бернулли, событие «произошло 0 успехов в п испытаниях» имеет вероятность qn, 1 успех − вероятность npqn−1 и т.д. Какое же число успехов наиболее вероятно, или, при каком k достигается максимум P(vn = k)?
Предложение 2.2. В n испытаниях схемы Бернулли с вероятностью успеха p наиболее вероятным числом успехов является
а) единственное число k0 = [np + p], если число np + p не целое; б) два числа k0 = np + p и k0 = np + p − 1, если число np + p целое.
Доказательство. Чтобы выяснить это, сравним отношение P(vn = k) и
P(vn = k−1) с единицей: |
|
|
|
|
pk qn−k |
|||||
|
P(vn = k) |
|
n! |
(k −1)!(n − k +1)! |
||||||
|
|
= |
|
|
|
|
|
|
|
= |
|
P(vn = k −1) |
k!(n − k)! |
|
n! |
|
|
pk−1qn−k+1 |
|||
|
|
= (n − k +1) p =1+ |
(n − k +1) p |
−1 =1+ np + p − k . |
||||||
|
|
|
kq |
|
kq |
|
kq |
Видим, что
(a) Р(vn = k) > Р(vn = k − 1) при np + p − k > 0, то есть при k < np + p; (b) Р(vn = k) < Р(vn = k − 1) при np + p − k < 0, то есть при k > np + p;
(c) P(vn = k) = P(vn = k − 1) при np + p − k = 0, что возможно лишь если пр + р − целое число.
Рассмотрим два случая: пр + р Z и пр + р Z. В первом случае пусть k0 = пр + р. Из полученных выше неравенств сразу следует, что
(a) |
(c) |
(b) |
|
...< P(vn = k0 − 2) < |
P(vn = k0 −1) = |
P(vn = k0 ) > P(vn = k0 |
+1) >... |
Во втором случае пусть k0 = [пр + р] (целая часть числа пр + р). Из неравенств (а), (b) следует, что
|
(a) |
(a) |
(b) |
|
|
|
...< P(vn = k0 − 2) < P(vn = k0 |
−1) < P(vn = k0 ) > P(vn = k0 +1) >... . |
|||
|
Действительно, неравенство Р(vn = k0) > Р(vn = k0 − 1), например, следует из |
||||
(b), примененного для k = k0 − 1 > np + p. |
|
|
|
||
|
В зависимости от того, является число пр + р целым или нет, имеем либо |
||||
два равновероятных «наиболее |
вероятных» |
числа |
успехов |
k0 = пр + р и |
|
k0 |
− 1 = пр + р − 1, либо одно «наиболее вероятное» |
число |
успехов, равное |
||
k0 |
= [пр + р]. |
|
|
|
|
Замечание 2.2. В предложении 2.2 наиболее вероятное число успехов k0 можно находить из двойного неравенства np − q ≤ k0 ≤ np + p .
28
Пример 2.4. Если p = q = 1/2, то при четном числе испытаний n число np + р = (п+1)/2 Z − не целое, так что наиболее вероятным является единственное число успехов [(п+1)/2] = n/2. Что совершенно понятно, так как есть нечетное число возможностей – получить 0,1, ... , п успехов, причем вероятности получить k и п−k успехов одинаковы.
При нечетном же числе испытаний п число пр + р = (п+1)/2 Z − целое, так что наиболее вероятными (и одинаково вероятными) являются два числа успехов (п+1)/2 и (п−1)/2.
Пример 2.5. Вероятность появления события A в каждом из n независимых испытаний равна 0,7. Сколько испытаний нужно произвести, чтобы наиболее вероятное число появлений события A в производимых испытаниях k0 =20 ?
Решение. По условию p =0,7 и q =0,3. Тогда из замечания 2.2 получим
0,7n − 0,3 ≤ 20 ≤ 0,7n + 0,7 .
Это двойное неравенство равносильно системе неравенств
0,7n − 0,3 ≤ 20,0,7n + 0,7 ≥ 20.
Из первого неравенства системы имеем n ≤ 20,3/ 0,7 = 29 . Из первого неравенства системы найдем n ≥19,3/ 0,7 ≈ 27,57 . Отсюда следует, что необходимо произвести 28 или 29 испытаний.
2.3.3. Номер первого успешного испытания
Рассмотрим схему Бернулли с вероятностью успеха p в одном испытании. Испытания проводятся до появления первого успеха. Введем величину τ, рав-
ную номеру первого успешного испытания.
Предложение 2.3. Вероятность того, что первый успех произойдет в испытании с номером k N = {1, 2, 3, …}, равна P(τ = k) = pqk −1 .
Доказательство. Действительно, P(τ = k) = P(n,n,K,nu) = pqk−1
14243
k−1
Определение 2.7. Набор чисел {pqk−1, k =1,2,3,...} называется геометриче-
ским распределением вероятностей и обозначается G(p).
Геометрическое распределение вероятностей обладает интересным свойством «нестарения», заключающимся в следующем. Пусть величина τ обозначает время безотказной работы (измеряемое целым числом часов) некоторого устройства. Предположим, что для величины τ вероятность принять любое свое значение k равна pqk−l, т.е. P(τ = k) = рqk−l для любого k N. Тогда для произ-
вольных n, k ≥ 0 |
|
P(τ > n +k / τ > n) = P(τ > k) . |
(2.1) |
29
Формула (2.1) означает следующее. Если известно, что устройство уже проработало без отказа n часов, то вероятность ему работать еще не менее k часов такая же, как вероятность проработать не менее k часов для нового устройства.
2.4. Математическое ожидание
Так как случайная величина ξ может принимать различные значения ξ(ω), в зависимости от того, какой исход ω «виртуального» эксперимента (замечание 1.1) будет разыгран, то с разных точек зрения удобно иметь числовую характеристику, имеющую смысл «среднего значения» случайной величины.
Определение 2.8. Математическим ожиданием дискретной случайной ве-
личины ξ называется число M[ξ] = ∑ξ(ω)P(ω) .
ω Ω
Математическое ожидание существует в том и только в том случае, когда этот ряд сходится абсолютно.
Предложение 2.4. Математическое ожидание может быть вычислено как
M [ξ] = ∑xk pk = ∑xk P{ξ = xk }. |
(2.2) |
|
k |
k |
|
Доказательство. Мы будем использовать следующий факт из курса математического анализа. Пусть дан абсолютно сходящийся ряд. Тогда его члены можно произвольным образом переставлять и группировать, полученные в ре-
зультате этого ряды будут сходиться к одному и тому же значению:
M[ξ] = ∑ξ(ω)P(ω) = ∑ ∑xk P(ω) =
ω Ω |
|
k ω: ξ(ω)=xk |
= ∑xk |
∑P(ω) =∑xk P{ω: ξ(ω) = xk }. |
|
k |
ω: ξ(ω)=xk |
k |
Пример 2.6. Математическое ожидание бернуллиевской случайной вели-
чины: M [ξ] =1 p + 0 (1 − p) = p .
Пример 2.7. ξ – число очков, выпавших на игральной кости. Распределение этой случайной величины:
|
ξ |
|
|
1 |
|
2 |
|
|
3 |
|
|
|
4 |
|
|
|
5 |
|
|
|
6 |
|
||||
|
P |
|
|
1/6 |
|
1/6 |
|
1/6 |
|
1/6 |
|
1/6 |
|
|
1/6 |
|
||||||||||
M [ξ] = ∑kpk =1 |
1 |
+ 2 |
1 |
|
+ 3 |
1 |
+ 4 |
1 |
+ 5 |
|
1 |
|
+ 6 |
1 |
|
= |
21 |
= |
7 |
. |
||||||
6 |
6 |
|
6 |
6 |
6 |
|
6 |
|
6 |
|
||||||||||||||||
k |
|
|
|
|
|
|
|
|
|
|
|
|
2 |
|
Пример 2.8. Пусть случайная величина ξ имеет биномиальное распределение. Найдем ее математическое ожидание. Согласно (2.2) имеем
M [ξ] = ∑nk =0 kCnk pk qn−k .
30