Добавил:
Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:

gumen_kurs / Теория / mono_a4 / MONO_A4

.PDF
Скачиваний:
18
Добавлен:
15.06.2014
Размер:
771.11 Кб
Скачать

Характеристическую функцию с. в. 1 можно разложить в ряд Тейлора, в коэффициентах которого использовать известные моменты E 1 = 0, E 12 = D 1 = 1. Получим

6

 

t2

t2

' 1 (t) = 1 + it E 1

 

 

E 12 + o(t2) = 1

 

+ o(t2):

2

2

p

Подставим это разложение, взятое в точке t= n, в равенство (25) и устремим n к бесконечности. Еще раз воспользуемся замечательным пределом.

 

 

(t) = ' 1

 

t

 

n

= 1

t2

 

t2

 

n

! exp

t2

 

 

'Zn=p

 

p

 

 

 

+ o

 

 

 

ïðè n ! 1:

n

 

 

 

 

2n

n

 

2

n

 

 

В пределе получили характеристическую функцию стандартного нормального закона. По теореме о непрерывном соответствии можно сделать вывод о слабой сходимости

pZnn = Sn pnna ) N0;1

распределений стандартизованных сумм к стандартному нормальному распределению, что и утверждается в ЦПТ.

Попробуйте теперь сами:

Упражнение 31. Пусть при любом > 0 случайная величина имеет распределение Пуассона с параметром . Используя теорему о непрерывном соответствии, доказать, что случайные величины

p

слабо сходятся к стандартному нормальному распределению при ! 1. Характеристическая функция с. в. вычислена в примере 54.

90

Раздел 16. Доказательство теоремы Пуассона

Нам осталось доказать теорему Пуассона. В доказательство будут использоваться только свойства устойчивости биномиального и пуассоновского распределений относительно операции суммирования. Никакие разделы, связанные с числовыми характеристиками с. в., сходимостями или характеристическими функциями, нам в доказательстве не понадобятся.

Вспомним утверждение, которое мы собрались доказывать. Теперь, когда мы знакомы с термином «распределение», можно сформулировать теорему Пуассона так:

Теорема Пуассона с оценкой погрешности

Пусть A f0; 1; 2; : : : ; ng — произвольное множество целых неотрицательных чисел, случайная величина n имеет биномиальное распределение Bn;p с параметрами n и p, случайная величина n имеет распределение Пуассона с параметром = np. Тогда

j P( n 2 A) P( n 2 A) j =

 

Cnk pk (1 p)n k

 

k!

e

6 np2 = n

:

 

k A

k A

k

 

 

2

 

X

X

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

2

 

2

 

 

 

 

 

 

 

 

 

 

 

 

Иначе говоря, требуется доказать, что

sup

j

P(

n 2

A)

 

P(

n 2

A)

j 6

np2

:

A

 

 

 

 

 

 

Доказательство проведем, используя так называемый «метод одного вероятностного пространства». Нам нужно оценить сверху разницу между двумя распределениями, а именно: доказать, что для любых множеств A f0; 1; 2; : : : ; ng разницу между вероятностями попадания в множество A биномиальной (с параметрами n и p) и пуассоновской (с параметром np) случайных величин можно оценить величиной np2.

Заметим, прежде всего, что разность

j P( n 2 A) P( n 2 A) j =

 

Cnk pk (1 p)n k

 

k!

e

 

k A

k A

k

 

 

X

X

 

 

 

 

 

 

 

 

 

 

 

2

 

2

 

 

 

 

 

 

 

 

никак не зависит от того, каким образом величины n è n взаимосвязаны и на каком вероятностном пространстве заданы, если только одна из этих величин имеет биномиальное, а вторая — пуассоновское распределение с нужными параметрами. Совместное распределение этих величин тут никак не участвует, поэтому данная разность не изменится, если заменить n è n íà другие случайные величины с теми же распределениями.

Первое, что мы сделаем — докажем, что для двух случайных величин и (где угодно заданных) «расстояние между распределениями», то есть supA j P( 2 A) P( 2 A) j, íå

больше, чем вероятность P

~

6= ~

~

 

äâóì произвольным случайным величинам ; ~ с дан-

ными распределениями не совпадать. Понятно, что эти новые с. в. должны быть заданы на одном вероятностном пространстве, и наилучшая оценка сверху получится, если нам

удастся так задать на одном вероятностном пространстве с. в. ~, распределенную как

, и , распределенную как , чтобы вероятность ~ 6 была наименьшей

~ P = ~ .

91

Лемма 9 (Неравенство каплинга). Пусть и — произвольные с. в. Пусть случай-

ная величина ~ одинаково распределена с , случайная величина одинаково распреде-

~

~

 

 

 

 

 

лена с , и величины ; ~ заданы на одном вероятностном пространстве. Тогда

A R j

 

( 2 A)

 

( 2 A) j 6

6= ~ :

sup

P

 

P

 

P ~

Замечание 28. Каплингом (coupling) äâóõ ñ. â.

и называют задание на одном

вероятностном пространстве случайных величин ~, распределенной как , и , распре-

~

деленной как .

Доказательство неравенства каплинга. Воспользуемся равенством P(C) = P(C \B)+

P(C \ B), а также тем, что вероятность пересечения двух событий не превосходит вероятности любого из них. Для любого множества A R

2 ~ 2 ~ 2 ~ ~ 2 ~ 6

P( A) = P A = P A; = ~ + P A; = ~ =

2 ~ ~ 2 ~ 6

= ~ A; = ~ + A; = ~ 6

P

P

2 ~ 6 2 ~ 6

6 P (~ A) + P = ~ = P ( A) + P = ~ ;

òî åñòü

2 2 ~ 6

P( A) P ( A) 6 P = ~ :

Поменяем местами и и получим, что для любого множества A R

j 2 2 j ~ 6

( A) ( A) 6 = ~ :

P

P

P

Займемся заданием на одном вероятностном пространстве величин ~n è ~n, распределенных как n è n, соответственно.

Пусть 1; : : : ; n — независимые случайные величины, имеющие распределение Бернулли с параметром p. Тогда их сумма ~n = 1 + : : : + n имеет биномиальное распределение с параметрами n и p, то есть одинаково распределена с n.

Пусть 1; : : : ; n — независимые случайные величины, имеющие распределение Пуассона с параметром p. Тогда их сумма ~n = 1 + : : : + n также имеет распределение Пуассона с параметром, равным сумме параметров слагаемых, то есть np, и одинаково распределена с n. Мы будем считать, что эти наборы с. в. сразу заданы на одном вероятностном пространстве, и позже построим их.

Тогда, в силу неравенства каплинга,

 

 

 

i!:

j P( n 2 A) P( n 2 A) j 6 P (~n 6= ~n) = P

n

i 6=

n

 

Xi

 

X

 

 

=1

 

i=1

 

Заметим теперь, что если две суммы с неотрицательными слагаемыми не равны друг другу, то хотя бы одно слагаемое в первой сумме отличается от соответствующего слагаемого в другой сумме (иначе...). Поэтому

j P( n 2 A) P( n 2 A) j 6 P

n

i 6=

n

i!

6 P

n

f i 6= ig!

6

n

P ( i 6= i) : (26)

 

X

 

Xi

 

 

[

 

 

X

 

 

i=1

 

=1

 

 

i=1

 

 

i=1

 

В последнем неравенстве использовано, что вероятность объединения не превосходит суммы вероятностей.

Осталось теперь так задать на одном вероятностном пространстве i è i, чтобы минимизировать P ( i 6= i).

92

Пусть множество элементарных исходов есть n-мерный куб, стороны которого

— отрезки [0; 1] на осях координат, вероятность есть просто мера Лебега, заданная на-алгебре борелевских множеств.

Вот ровно сейчас тот, кто поленился о них прочитать, должен об этом пожалеть!

То есть мы наудачу выбираем точку ! = (!1; : : : ; !n) в кубе, или, что то же самое, каждую из координат !i выбираем наудачу и независимо от других на [0; 1].

Построим для каждого i = 1; : : : ; n по !i случайные величины i = i(!i) è i = i(!i) с нужными распределениями, чтобы они, к тому же, совпадали с большой вероятностью. Положим

(

i(!i) =

0; åñëè 0 6 !i < 1 p; 1; åñëè 1 p 6 !i 6 1:

Эта с. в. имеет распределение Бернулли: P( i = 0) = P(0 6 !i < 1 p) = 1 p,

P( i = 1) = P(1 p 6 !i 6 1) = p.

Случайная величина i должна иметь распределение Пуассона с параметром p, то

åñòü pk = P( i = k) = pk e p при k = 0; 1; 2; : : : . Сумма этих вероятностей равна 1, k!

поэтому можно разбить тот же самый отрезок [0; 1] на отрезки, длина k-го из которых равна pk при k = 0; 1; 2; : : : , и положить i = k, åñëè !i принадлежит отрезку с номером k:

6

3

2

1

1 p

 

p

0

 

0

p

=

+

 

e

 

 

 

p

 

 

p

1

: : :

i

i

p

: : :

0

 

+

 

p

 

1

 

+

 

p

 

2

 

 

 

 

0;

åñëè 0

!

< p0;

 

 

 

81;

åñëè p06 !i i < p0 + p1;

 

 

 

>

 

 

6

 

 

 

 

 

>

 

åñëè p0

+ p1

 

!i < p0 + p1 + p2;

 

 

 

>2;

 

 

(!

) =

>

 

 

 

6

 

>

 

 

 

 

 

i

i

 

>

 

 

 

 

 

 

 

 

>

 

 

 

 

 

 

 

 

>: : :

 

 

 

 

 

 

 

>

 

 

 

 

 

 

 

 

<

 

 

 

 

 

 

 

 

>k;

åñëè p0+ : : : +pk 1 6 !i < p0+ : : : +pk;

-

 

>

 

 

 

 

 

 

 

 

>: : :

 

 

 

 

 

 

 

>

 

 

 

 

 

1

!i

>

 

 

 

 

 

 

 

>

 

 

 

 

 

>

>

>

:

С очевидностью, получим с. в. с распределением Пуассона:

P( i = k) = P(p0 + : : : + pk 1 6 !i < p0 + : : : + pk 1 + pk) = pk; k = 0; 1; 2; : : : :

 

 

 

 

 

 

6

 

 

 

 

 

Отметим, что p0

=

p

0

e p = e p. Докажем, что

1

@

@

 

 

e p

 

 

 

 

@

 

 

 

 

 

 

 

 

0!

 

 

 

1

 

 

 

e p > 1 p ïðè p > 0.

 

 

 

 

 

p@@

 

-

 

 

 

 

 

 

0

 

 

1

@

p

Действительно,

а) при p = 0 значения функций совпадают: e 0 = 1 0 = 1;

б) производные в нуле у e p и 1 p также совпадают (и равны 1) в) при p = 1 левая часть больше правой: e 1 > 1 1 = 0;

93

г) функция e p выпукла (ее производная отрицательна всюду), так что коснувшись однажды прямой 1 p, она ее не перекает нигде, оставаясь всегда больше.

Посмотрим, с какой вероятностью с. в. i è i не совпадают. Это происходит при 1 p 6 !i < e p — на этом интервале i = 1, à i = 0, а также при !i > p0 + p1 = e p + pe p

— на этом интервале i = 1, à i > 2. Поэтому

P( i 6= i) = P(1 p 6 !i < e p èëè e p + pe p 6 !i 6 1) =

=e p (1 p) + 1 e p + pe p = p 1 e p 6 p2:

Âпоследнем неравенстве мы снова воспользовались тем, что e p > 1 p, èëè 1 e p 6 p. Итак, при каждом i = 1; : : : ; n мы построили пару с. в. i, i, отличающихся с ве-

роятностью не более p2. При разных i эти с. в. независимы, так как построены по независимым координатам точки, выбранной наудачу в кубе. Окончательно, из неравенства (26) получим:

n

 

Xi

P ( i 6= i) 6 np2:

j P( n 2 A) P( n 2 A) j 6

=1

 

94

Приложение. Знакомьтесь — максимум и минимум

В этом разделе, который никогда не будет прочитан на лекциях, хотя бы потому, что эта тема подробно разбирается на практических занятиях, мы поговорим о «максимуме и минимуме из n случайных величин». Вдумчивый читатель уже смог догадаться, что к клубу «Максимин» ЭФ НГУ данная тема касательства не имеет.

Пусть с. в. 1; 2; : : : ; n; : : : независимы и одинаково распределены, F 1 (x) — их общая функция распределения.

Определение ¹ N. Случайную величину 'n = maxf 1; : : : ; ng назовем максимумом, а случайную величину n = minf 1; : : : ; ng — минимумом из n случайных величин

1; 2; : : : ; n.

Замечание ¹ N. Заметим на всякий случай, что 'n(!) = maxf 1(!); : : : ; n(!)g, òàê ÷òî 'n на каждом элементарном исходе совпадает с одной из i, 1 6 i 6 n, íî ни с одной из них не совпадает при всех ! (если с. в. независимы).

Упражнение ¹ N. Доказать, что вероятность максимуму из первых n независимых и одинаково распределенных случайных величин, имеющих, к примеру, равномерное распределение, равняться первой из них (или любой другой), есть 1=n:

1

P(maxf 1; : : : ; ng = 1) = n = P( 1 > 2; : : : ; 1 > n);

то есть «в среднем в 1=n случаев максимум совпадает с выбранной вами среди 1; : : : ; n величиной».

Для доказательства воспользоваться соображениями симметрии, разбив все пространство на не(сколько?) равновероятных событий типа f 1 > 2; : : : ; 1 > ng и несколько событий нулевой вероятности, включающих возможные равенства. Вспомнить, с какой вероятностью две (или больше) из f ig совпадают (нарисовать событие f 1 = 2g в квадрате на плоскости).

Лемма ¹ N. Функции распределения случайных величин 'n = maxf 1; : : : ; ng è n = minf 1; : : : ; ng равны, соответственно,

n n

F'n (x) = F 1 (x) è F n (x) = 1 1 F 1 (x) :

Доказательство. Найдем функцию распределения F'n (x). Максимум из n величин меньше x тогда и только тогда, когда каждая из этих величин меньше x.

 

 

 

 

 

 

 

 

независ.

 

 

F'n (x) =

P maxf 1; : : : ; ng < x = P 1 < x; : : : ; n < x

=

 

 

=

P 1

< x : : : P n < x

 

од.распред.

P 1

< x

n

= F 1

(x)

n:

=

 

 

 

 

 

 

 

 

 

 

 

Найдем функцию распределения F n (x). Минимум из n величин не меньше x тогда и только тогда, когда каждая из этих величин не меньше x.

95

F n (x)

= P minf 1; : : : ; ng < x = 1 P minf 1; : : : ; ng > x

=

 

= 1 P 1 > x; : : : ; n > x = 1 P 1 > x : : : P n > x =

 

 

 

n

 

 

 

Пример ¹ N.

= 1 P 1 > x

= 1 1 F 1 (x) n:

 

Пусть с. в.

1; 2; : : : ; n; : : :

независимы и имеют равномерное

распределение на

отрезке [0; 1].

Докажем,

÷òî

последовательность с. в. '1 = 1,

'2 = maxf 1; 2g, : : : , 'n = maxf 1; : : : ; ng, : : :

сходится по вероятности к правому концу

отрезка — к 1. Не употребляя термин «последовательность», можно произнести это утверждение так: «максимум из первых n случайных величин с ростом n сходится к единице по вероятности».

Есть как минимум два способа доказательства:

Способ 1. По определению. Пусть " > 0. Найдем P(j'n 1j > "). Заметим, что 'n 6 1, поскольку это максимум из с. в., принимающих значения на отрезке [0; 1] (крайняя правая из «координат n точек, брошенных наудачу на [0,1] независимо друг от

друга»). Поэтому

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

P 'n 1j > " = P 1 'n > "

 

 

 

 

 

 

 

Для того, чтобы установить сходимостьj последней

вероятности

к нулю, можно ее

либо найти, либо оценить с помощью неравенства Чебыш¸ва (Маркова).

 

1(а). Найдем эту вероятность.

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

P 1 'n > " = P 1 " > 'n = P 'n < 1 " = F'n (1 "):

 

 

Для равномерного

распределения

на отрезке

[0; 1]

 

8xn;

 

 

 

F 1 (x) =

8x;

0 6 x 6 1

 

поэтому

F'n (x) =

 

F 1 (x) n =

0 6 x 6 1

 

>

0;

x < 0;

 

 

 

 

 

 

 

 

 

 

 

 

>

0;

x < 0;

 

 

<1; x > 1;

 

 

 

 

 

 

 

 

 

 

<1;

x > 1:

 

 

>

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

>

 

 

 

 

 

заметить, что 1

 

" < 1, òî

 

 

 

 

 

 

 

:

 

 

 

 

À åñëè åùå :

 

 

 

 

((1

 

 

 

 

 

 

 

 

 

 

 

 

! 0

P j'n 1j > " = F'n (1 ") =

 

")n;

0

1

 

 

" < 1;

òî åñòü 0 < " 1

 

 

 

 

 

 

 

0;

 

 

1

 

" < 0; òî åñòü

" > 1;

 

 

 

 

 

 

 

 

 

 

 

 

6

 

 

 

 

 

 

 

 

6

 

ïðè n ! 1.

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

1(б). Оценим вероятность сверху.

 

Поскольку 1 'n > 0, по неравенству Маркова

 

 

 

P 1

 

'

 

> "

 

E (1 'n)

=

1 E 'n

:

(27)

 

 

 

 

 

 

n

 

 

6

"

 

 

"

 

 

 

Найдем плотность распределения с. в. 'n и математическое ожидание E 'n.

f'n (x) = F'n (x) 0 =

8nxn 1; 0 6 x 6 1

 

 

E 'n = x nxn 1 dx =

n :

 

 

 

 

 

>

0;

 

 

 

 

x < 0;

 

 

 

1

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

Z

 

 

 

 

 

 

 

 

 

 

 

x > 1;

 

 

 

 

 

 

n + 1

 

 

 

<0;

 

 

 

 

 

 

 

0

 

 

 

 

 

 

 

 

>

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

Подставляя

математическое ожидание в неравенство (27), получим

 

 

 

 

 

 

:

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

1

 

 

 

 

 

 

 

 

1

n

 

 

 

1

 

 

 

 

 

 

 

 

 

 

E 'n

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

n + 1

 

 

 

P 1 'n > " 6

 

 

 

 

 

=

 

 

 

 

 

 

=

 

! 0 ïðè n ! 1:

 

 

"

 

 

"

 

 

 

(n + 1) "

96

Способ 2. Используем связь со слабой сходимостью. Сходимость по вероятности к

константе равносильна слабой сходимости (свойство 19). Докажем поэтому, что 'n слабо сходится к единице. Требуется доказать, что функция распределения F'n (x) сходится к F1(x) = P(1 < x) для любого x 6= 1 (почему кроме 1??).

При любом x 6= 1 имеем:

F'n (x) =

8xn; 0 6 x 6 1

 

F1(x) =

0; x 6 1

 

>

0;

x < 0;

!

 

(1; x > 1;

 

<1;

x > 1

 

 

 

 

>

 

 

 

 

 

:

и только при x = 1 сходимости нет: F'n (1) = 1, тогда как F1(1) = 0.

Таким образом, 'n сходится слабо к единице, и, следовательно, сходится к ней же по вероятности.

Упражнение ¹ N+1. Доказать (способами 1(а), 1(б) и 2), что, в условиях примера N, последовательность 1; 2; : : : ; n; : : : сходится по вероятности к нулю (мы будем говорить «минимум из первых n случайных величин с ростом n сходится к нулю по вероятности»).

Красивых задач, связанных с максимумом и минимумом, слишком много. Предлагаю вам решить, например, следующие:

Пусть с. в. 1; 2; : : : ; n; : : : независимы и имеют равномерное распределение на отрезке [a; b], 'n = maxf 1; : : : ; ng, n = minf 1; : : : ; ng. Доказать, что

n

1)b a(b 'n) при n ! 1 слабо сходится к показательному распределению с параметром 1;

n

2) точно так же себя ведет последовательность b a( n a);

3) это не удивительно, поскольку с. в. b 'n è n a одинаково распределены;

4)посчитав вероятность P( n > x; 'n < y) = P(x 6 1 < y) n, можно легко найти функцию совместного распределения с. в. n; 'n и с ее помощью, например, доказать зависимость этих с. в. (последнее и так очевидно, не правда ли?)

Теперь, наконец,

ПОРА ИЗУЧАТЬ МАТЕМАТИЧЕСКУЮ СТАТИСТИКУ!

97

Рекомендуемая литература

[1]Гнеденко Б. В. Курс теории вероятностей. М., 1988.

[2]Чистяков В. П. Курс теории вероятностей. М., 1982.

[3]Боровков А. А. Теория вероятностей. М., 1986.

[4]Колемаев В. А., Калинина В. Н. Теория вероятностей и математическая статистика. М., Инфра-М, 1997.

На практических занятиях потребуется задачник:

[5] Коршунов Д. А., Фосс С. Г. Сборник задач и упражнений по теории вероятностей. Новосибирск, 1997.

Для самостоятельной работы можно использовать также задачники с ответами и указаниями:

[6]Севастьянов Б. А., Чистяков В. П., Зубков А. М. Сборник задач по теории вероятностей. М., 1986.

[7]Вентцель Е. С., Овчаров Л. А. Теория вероятностей (Избранные главы высшей математики для инженеров и студентов втузов, задачи и упражнения). М., 1973.

98