Добавил:
Upload Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:

Anatolyev-lectures

.pdf
Скачиваний:
30
Добавлен:
11.02.2015
Размер:
597.92 Кб
Скачать

Рассмотрим непрерывно дифференцируемую функцию g

x1

 

= x1

 

Вальда,

 

 

 

x2

x2

. По теореме Манна–

 

x

1 1

d

N(0; 1)

;

 

 

 

 

 

 

 

 

 

 

 

 

2 2

! N(0; 1)

 

 

 

 

 

 

x

 

 

 

 

 

т.е. интересующая нас величина имеет распределение Коши. Применяя же Дельта

Метод, имеем:

 

@ x2

 

 

 

=

 

 

1 ; 21

 

 

;

 

 

G =

 

 

 

 

 

 

 

 

 

 

 

 

 

 

x1

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

@(x1; x2)

 

 

2

2

 

 

 

 

 

 

 

 

 

 

 

 

( 1)

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

2

 

 

 

 

 

 

 

2

 

 

так что

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

1

 

 

 

 

00; 1 +

2 2

 

 

1

:

pn x1

 

d

 

 

 

 

 

 

 

 

 

 

 

! N B

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

1

 

 

C

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

x

2

 

2

 

 

 

 

2

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

@

 

 

 

 

 

 

 

 

A

 

5Предельные теоремы для независимых наблюдений

Основными инструментами построения статистических выводов в асимптотическом подходе являются Законы Больших Чисел (ЗБЧ) и Центральные Предельные Теоремы (ЦПТ). ЗБЧ представляет собой результат о сходимости выборочного среднего к популяционному среднему, ЦПТ дает представление о предельном распределении определенным образом нормированного центрированного выборочного среднего. Существует довольно большое количество формулировок ЗБЧ и ЦПТ. Нас будут интересовать предельные теоремы для двух основных случаев: случай независимых наблюдений и случай стационарных эргодичных временных рядов. Далее приводятся ЗБЧ и ЦПТ для независимых или серийно нескоррелированных скалярных случайных величин.

Теорема Колмогорова (независимые одинаково распределенные наблюдения). Пусть случайные величины fZig1i=1 независимы и одинаково распределены. Кроме того, пусть существует математическое ожидание EjZij. Тогда

n

1 X

n

i=1

as

Zi ! E[Zi]:

Теорема Колмогорова (независимые неоднородные наблюдения). Пусть слу-

 

, то

f

 

gi=1

 

 

 

 

i

Pi=1

2

 

 

 

 

 

 

 

i

 

чайные величины

 

Zi

1

независимы и имеют конечные дисперсии 2. Если

1

i

<

 

2

1

 

 

 

 

n

=1

Zi E

"n i=1 Zi#

! 0:

 

 

 

 

 

 

 

1

n

 

 

1 n

as

 

 

 

 

 

 

 

 

 

Xi

 

 

X

 

 

 

 

Теорема Чебышева (нескоррелированные наблюдения). Пусть случайные ве-

личины fZig1 нескоррелированы, т.е. Cov(Zi; Zj) = 0 для i 6= j. Если 1 Pn 2 !

i=1 n2 i=1 i n!1

11

0, то

 

"n

=1 Zi#

! 0:

n i=1 Zi E

1

n

1

n

p

 

X

 

Xi

 

Теорема Линдберга-Леви (независимые одинаково распределенные наблюдения). Пусть случайные величины fZig1i=1 независимы и одинаково распределены с математическим ожиданием E[Zi] = и дисперсией V ar[Zi] = 2. Тогда:

pn n

=1 Zi !

! N(0; 2):

 

1

n

d

 

 

Xi

 

Теорема Ляпунова (независимые неоднородные наблюдения). Пусть случайные величины fZig1i=1 независимы с математическим ожиданием E[Zi] = i, дисперсией V ar[Zi] = i2 и третьим центральным моментом E[jZi ij3] = i. Тогда, если

 

(

in=1 i)1=3

 

 

 

 

(Pi=1 i2)

 

 

n!!1

 

n P

n

 

1=2

 

0;

 

 

 

 

то

 

 

 

! N

 

 

P( in=1 i2)1=2

 

 

i=1(Zi

i)

 

d

(0; 1):

P

6Асимптотические статистические выводы

Идея построения статистических выводов при помощи асимптотического метода довольно очевидна. Вместо точного распределения оценки берется асимптотическое, на основании которого строятся распределения тестовых статистик.

Пример. Пусть

 

 

 

 

 

 

p

 

 

 

d

2

):

 

 

 

 

n(Zn ) ! N(0;

В данном случае мы имеем дело с выборочным средним Zn, которое согласно ЦПТ имеет асимптотически нормальное распределение. Заметим, что в данном случае распределение зависит от неизвестного параметра 2, поэтому статистика Zn является

асимптотически непивотальной статистикой.

Определение. Статистика называется (асимптотически) пивотальной, если ее (асимптотическое) распределение не зависит от неизвестных параметров.

Возвращаясь к нашему примеру, мы можем получить пивотальную статистику,

построив

состоятельную оценку дисперсии 2

:

 

 

 

p

 

 

 

 

 

 

 

p

 

(

 

nb

 

 

 

 

 

 

(Zn

 

)

Z

 

)

 

 

n

 

n

 

d

 

 

 

 

 

 

 

=

 

 

 

 

 

 

! N(0; 1);

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

b

 

 

 

 

 

 

 

 

 

 

b

 

12

 

p

 

 

 

d

 

 

 

 

так как согласно ЦПТ

n(Zn )= ! N(0; 1), а в силу состоятельности оценки

2

p

 

 

 

 

, = ! 1. Теперь, зная асимптотическое распределение построенной статисти-

b

b

 

 

 

 

ки можно построить доверительный интервал. Так асимптотический доверительный интервал для будет

Zn pnq1N 2

; Zn + pnq1N 2

:

 

 

 

(0;1)

 

 

 

(0;1)

 

 

 

b

 

 

 

b

 

 

Предположим теперь, что нам нужно протестировать гипотезу H0 : = 0. Согласно построенному нами -процентному доверительному интервалу гипотеза будет

 

 

 

 

 

 

 

 

 

 

 

 

 

(0;1)

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

отвергаться, если pnjZn 0j= > q1N 2

. В противном случае гипотеза принимает-

ся. Осталось построить

состоятельную оценку дисперсии. Оказывается, выборочная

 

 

 

b

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

дисперсия будет состоятельной оценкой для дисперсии:

 

 

 

 

 

 

 

 

 

 

= v

 

 

 

 

 

 

 

 

= v

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

1 n

 

 

 

 

 

 

1

n

 

 

 

 

 

 

 

 

 

)2 p ;

 

 

 

(Zi

 

Zn)2

(Zi

 

)2

 

(Zn

 

 

 

 

 

 

 

 

 

 

 

 

un i=1

 

 

 

un i=1

 

 

 

 

 

!

 

 

 

u X

 

 

 

 

u

 

X

 

 

 

 

 

 

 

 

 

 

 

 

 

 

b t

 

 

 

 

 

t

 

 

 

p

 

 

 

 

 

 

 

 

 

 

 

p

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

] = 2 и (Zn )2

поскольку из ЗБЧ следует, что n1 Pin=1(Zi )2 ! E[(Zi )2

! 0.

7Асимптотика для стационарных временных рядов

До сих пор мы рассматривали асимптотические свойства оценок в случае независимых наблюдений, и если у нас есть последовательность Z1, Z2, Z3, : : :, Zn, мы могли сказать, что у нас имеется n наблюдений. В случае временных рядов (наблюдений во времени) это, вообще говоря, не так. Каждая траектория Z1; Z2; Z3; : : : ; ZT

представляет собой в общем случае одно наблюдение, а из одного наблюдения делать статистические выводы проблематично. Поэтому на природу исходных данных приходится накладывать какую-то структуру. Часто для этого используются предположения о стационарности и эргодичности ряда. Грубо говоря, стационарность

– это “стабильность” распределения Zt во времени, а эргодичность – это “потеря памяти”, или “асимптотическая независимость от начальных данных”. Дадим более четкие определения:

Определение. Временной ряд называется строго стационарным, если совместное распределение Zt; Zt 1; : : : ; Zt k не зависит от t для любых k.

Поскольку точное определение эргодичности использует понятия теории меры, дадим интуитивное определение:

“Определение”. Временной ряд Zt называется эргодичным, если Zt и Zt+k асимптотически независимы при k ! 1.

13

Приведем примеры различных стационарных или нестационарных и эргодичных или неэргодичных временных рядов.

Пример 1 (стационарные эргодичные ряды).

Zt iid, независимые одинаково распределенные наблюдения,

"t iid(0; 2), сильный “белый шум”,

AR(1) : zt = zt 1 + "t, j j < 1,

MA(1) : zt = "t + "t 1.

Пример 2 (нестационарные неэргодичные ряды).

zt = zt 1 + "t, “случайное блуждание”. Здесь дисперсия наблюдений растет со временем: V ar(zt) = V ar(zt 1) + "2, т.е. ряд не может быть стационарен. Кроме

того, начальные данные “не забываются” со временем: zt = z0 +

t

"i

 

неэргодичен.

Pi=1

 

, и ряд

Пример 3 (стационарные неэргодичные ряды).

Пусть z N(0; 1) и zt = z + "t, где "t и z независимы. Очевидно, что ряд zt

стационарен, но неэргодичен.

Пример 4 (нестационарные эргодичные ряды).

Сезонный ряд: zt = s( ; t) + "t, где s( ; t) = s( ; t + ).

Результат. Если случайный процесс zt является стационарным и эргодичным, и если

Yt = f(zt; zt 1 : : :) есть случайная величина, то Yt также является стационарным и эргодичным рядом.

Определение. Информацией в момент времени t называются все реализовавшиеся значения zk вплоть до zt, т.е. It = fzt; zt 1; : : :g.

Определение. Ряд zt называется последовательностью мартингальных приращений (ПМП) по отношению к своему прошлому, если E[ztjIt 1] = 0.

Сформулируем ЗБЧ и ЦПТ для временных рядов.

Теорема Биркоффа–Хинчина (зависимые наблюдения). Пусть ряд fZtg+t=11

стационарен и эргодичен. Кроме того, пусть E[jZtj] < 1, тогда

T

1 X as

T

Zt ! E[Zt]

t=1

14

при T ! 1.

Теорема Биллингслея (последовательность мартингальных приращений).

Пусть ряд fZtg+t=11 стационарен, эргодичен и является ПМП по отношению к своему прошлому. Кроме того, пусть 2 = E[Zt2] < 1, тогда

1

 

T

 

 

Xt

d

 

 

 

Zt ! N(0; 2)

 

 

 

 

 

pT =1

при T ! 1.

“Теорема” (зависимые наблюдения). Пусть ряд fZtg+t=11 стационарен и эргоди-

чен. Кроме того, пусть

+1

X

2 = Cov[Zt; Zt j] < 1:

j=1

Тогда при определенных условиях,

pT

T

=1 Zt E[Zt]!

! N(0; 2)

 

1

T

d

 

 

Xt

 

при T ! 1.

Приведем примеры использования изложеных выше теорем для исследования асимптотических свойств оценок на временных рядах.

Пример. Рассмотрим авторегрессионный процесс первого порядка AR(1):

xt = xt 1 + "t; j j < 1; "t s iid(0; 2):

Нас интересуют асимптотические свойства МНК-оценки

=

 

 

tT=2 xt 1xt

= +

tT=2 xt 1"t

:

 

 

P tT=2 xt2 1

P tT=2 xt2

1

 

По теореме Биркоффа–Хинчина,b

 

 

 

 

 

 

 

P

 

 

P

 

 

 

 

1

 

 

 

T

 

p

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

xt 1"t ! E[xt 1"t] = 0;

 

T 1

=2

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

Xt

 

 

 

 

 

 

 

 

 

 

 

1

 

T

 

 

 

 

 

 

 

 

 

 

 

p

 

 

 

 

 

 

 

 

xt2 1 ! E[xt2 1]:

 

 

 

 

 

T 1

 

 

 

 

 

 

 

 

 

=2

 

 

 

 

 

 

 

 

 

 

Xt

 

 

 

Следовательно, по теореме Слуцкого оценка является состоятельной оценкой, т.е.

 

p

 

 

 

 

 

b

 

 

 

 

 

 

 

! .

 

 

 

 

 

 

 

 

 

 

 

 

b

Теперь найдем асимптотическое распределение МНК-оценки:

 

p

 

 

1

 

T

 

 

 

 

 

 

 

 

 

 

 

 

p

 

 

 

t=2 xt 1"t

 

 

 

T

 

 

 

 

 

 

 

T 1

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

T ( ) =

 

 

 

T 1 1

PtT

2 xt2 1

r

 

 

 

 

:

 

 

 

 

T

 

1

 

 

 

b

 

 

 

 

P

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

15

 

 

 

 

 

T

 

 

 

1

 

 

p

 

Очевидно, что

 

 

T

! 1, а

 

 

tT 2 xt2 1 ! E[xt2 1

]. Покажем, что последователь-

 

 

T 1

T

1

 

ность xt

 

 

 

 

 

 

 

!1

 

 

 

 

 

 

1"t является последовательностью мартингальных приращений по отноше-

 

 

q

 

 

 

P

 

 

нию к своему прошлому, т.е. информационному множеству It 1 = fxt 2"t 1; xt 3"t 2 : : :g:

E[xt 1"tjIt 1] = E[E[xt 1"tjxt 1; xt 2"t 1 : : :]jIt 1] = 0;

т.е. последовательность xt 1"t является ПМП. Таким образом, мы можем применить ЦПТ Биллингслея:

 

 

 

1

 

 

 

 

 

 

T

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

Xt

 

 

d

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

xt 1"t ! N(0; E[xt2 1"t2]):

 

 

 

 

 

 

 

 

 

 

 

 

 

 

pT

 

 

 

 

 

 

 

 

 

 

1 =2

 

Заметив, что E[x2

] = V ar[xt] = 2V ar[xt 1

] + 2 =

 

2

, получим окончательный

 

2

t

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

1

 

результат:

 

 

 

 

p

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

d

 

2

):

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

T ( ) ! N(0; 1

 

 

 

Соответствующая пивотальная

 

 

статистика будет

 

 

 

 

 

p

b

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

T ( )

d

 

(0; 1):

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

1 2 ! N

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

p

b

 

 

 

 

 

 

 

В результате, 95%-ный доверительныйbинтервал для есть

#

 

 

 

"

 

 

 

 

 

 

 

 

 

r

 

 

 

 

r

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

CI

 

=

 

 

1:96

 

1 2

; + 1:96

 

 

1 2

:

 

 

 

 

 

b

 

 

 

 

 

 

 

T b

b

 

 

 

 

T b

 

Обратимся еще раз к ЦПТ для зависимых наблюдений. Вид вариационной матрицы в асимптотическом распределении оценки требует некоторого пояснения. Когда мы имеем дело с последовательностью мартингальных приращений Zt, у нас E[ZtZt j] = 0 для j > 0, поэтому асимптотическая дисперсия для ПМП имеет простой вид: 2 =

E[Zt2]. Однако, всё сложнее для более зависимых наблюдений:

 

V ar "p1T t=1 Zt#

= T V ar

" =1 Zt#

=

 

 

 

 

 

 

T

1

 

T

 

 

1

 

 

 

X

 

 

Xt

 

 

 

 

 

 

 

 

=

[T V ar(Zt) + (T

1)Cov(Zt; Zt+1) + (T 1)Cov(Zt; Zt 1) +

 

 

T

+

(T 2)Cov(Zt; Zt+2) + (T 2)Cov(Zt; Zt 2) + : : : +

 

 

 

 

 

 

 

 

 

+1

 

 

 

 

 

 

 

 

 

X

+

Cov(Z1; ZT ) + Cov(ZT ; Z1)] T!

Cov(Zt; Zt j):

 

 

 

 

 

 

 

 

 

!1

 

j=1

Рассмотрим пример с зависимыми наблюдениями, когда асимптотическую дисперсионную матрицу приходится считать по указанной выше формуле. Ясно, что в этом случае ошибки должны быть скоррелироваными.

16

d 2 2
zt ! N(0; (1 + ) ):

Пример. Рассмотрим процесс скользящего среднего первого порядка MA(1):

zt = "t + "t 1; "t iid(0; 2):

Заметим, что

V ar(zt) = (1 + 2) 2; Cov(zt; zt 1) = 2; Cov(zt; zt j) = 0; j > 1:

В этом случае,

+1

X

Cov(zt; zt j) = (1 + 2) 2 + 2 2 = (1 + )2 2:

j=1

Тогда, согласно ЦПТ для зависимых наблюдений,

T

p1 X

T t=1

Обратим внимание на то, что в этом случае zt не является ПМП относительно It = fzt 1; zt 2; zt 3 : : :g, т.к. E[ztjzt 1; zt 2; : : :] = "t 1 6= 0.

Для получения пивотальной статистики возникает необходимость состоятельного оценивания асимптотической дисперсионной матрицы. Вид искомой оценки может

быть

1

T

T 1

1

T

b

 

X

 

 

 

 

Xj

 

X

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

=

T

(Zt Z)(Zt Z)0 +

=1

T

f(Zt Z)(Zt j Z)0 + (Zt Z)(Zt+j Z)0g:

 

 

t=1

 

t=j+1

p

Увы, такая оценка не будет состоятельной, т.е. b 9 . Дело в том, что из-за конечности выборки невозможно состоятельно оценить крайние члены ряда. Таким образом, используя эргодичность, необходимо “обрезать” ряд на слагаемом номер m << T , таком, чтобы при T ! 1 мы имели m ! 1 и m=T ! 0. Ньюи и Уэст предложили состоятельную оценку вариационной матрицы, которая по построению является

положительно определенной:

 

m

1 mj

j

1

 

1 min(T;T +j)

:

NW = j= m

+j

T t=max(1;1+j)(Zt Z)(Zt j Z)0

b

X

 

 

 

 

 

 

X

 

 

 

 

 

Для практического использования была предложена следующая формула выбора m:

m = "4

 

100

 

#

:

 

 

T

 

1=3

 

Такой выбор m дает хорошие результаты в смысле точности оценок, за исключением тех случаев, когда затухание возмущений в процессе происходит медленно, т.е. корни соответствующих полиномов лежат близко к единичному кругу.

17

Вернемся к уже рассмотренному примеру MA(1): zt = "t + "t 1. Вот результат, который мы получили:

1

 

T

 

 

Xt

d

 

 

 

zt ! N(0; (1 + )2 2):

 

 

 

 

 

pT =1

Допустим теперь, что мы хотим получить состоятельную оценку для асимптотической дисперсии. На практике у нас есть три возможных способа:

 

 

 

 

 

 

 

 

p

 

p

 

 

Мы можем построить состоятельные оценки ! и

2 ! 2, а затем сконстру-

 

ировать состоятельную оценку

асимптотической дисперсии: 2 = (1 + )2 2.

 

 

 

 

 

b

b

z

b

 

 

 

 

 

 

 

 

 

z

 

b

 

 

Зная, что искомая дисперсия выражается как 2 = V ar(zt) + 2Cov(zt; zbt 1), мы

 

 

 

 

 

 

 

 

 

 

2

\

\

 

 

можем сконструировать состоятельную оценку в виде z

= V ar(zt)+2Cov(zt; zt 1),

 

где

\

1 T

 

2

\

1

bT

 

 

 

 

 

 

 

X

 

 

 

 

Xt

 

 

 

 

 

 

zt ; Cov(zt; zt 1) = T

 

 

 

 

V ar(zt) = T

 

 

ztzt 1:

 

 

 

 

 

 

t=1

 

 

 

 

=2

 

 

Мы можем использовать приведенную выше оценку Ньюи–Уэста:

m

j

1

1 min(T;T +j)

z2 = j= m

1 mj+j

T t=max(1;1+j) ztzt j:

X

 

 

X

b

8Введение в асимптотику для нестационарных процессов

Если временной ряд не стационарен, а имеет стохастические тренды, построение статистических выводов значительно усложняется. Здесь мы рассмотрим простейший пример важного класса нестационарных процессов. Пусть Xt описывается уравнением случайного блуждания, т.е.:

 

 

 

 

Xt = Xt 1 + "t; X0 = 0; "t s iid(0; 2):

 

 

 

 

 

 

Тогда выборочное среднее выражается следующим образом:

 

 

 

 

 

 

 

 

 

1

 

T

X =

"T

+

2

"

 

+ +

T t + 1

" + + " :

 

 

 

 

 

 

Xt

 

 

 

 

 

 

 

 

T

t

 

 

 

T T

T 1

 

 

 

 

 

T

 

 

t

 

 

 

1

 

 

 

 

 

=1

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

Следовательно,

 

 

 

 

t!

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

!

 

T

T

 

 

 

 

 

 

 

 

T

 

2 +

 

 

T

 

2

 

T

 

2

V ar

1

X

 

 

= 2 1 +

 

T 1

 

 

+

 

 

2

+

1

 

;

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

t=1

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

т.е.

 

 

X

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

V ar T

=1 Xt!

= 2

 

 

 

6T

 

 

 

= O(T ):

 

 

 

 

 

 

 

 

 

 

1

 

T

 

 

 

(T + 1)(2T + 1)

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

Xt

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

18

Рассуждая аналогично, в результате мы получим:

1

T

p 1

T

p 1

T

p

 

X

Xt ! V1;

 

X

Xt 1"t ! V2;

 

Xt

Xt2 1 ! V3;

T 3=2

t=1

T

t=1

T 2

=1

 

 

 

 

 

 

где V1; V2; V3 – некоторые случайные величины.

Если мы теперь используем МНК-оценку для , которое равно единице, то асимптотические свойства этой оценки будут следующие:

p V2

T (b 1) ! V3 :

Во-первых, МНК-оценка в данном случае суперсостоятельна, т.е. скорость сходимо- p

сти к асимптотическому распределению превышает T . Во-вторых, асимптотическое распределение нестандартно: оно не является нормальным, зато обладает ненулевыми смещением и скошенностью. Оно носит название распределения Дики–Фуллера.

II Бутстраповский подход

1Приближение истинного распределения бутстраповским

В основе бутстраповского подхода лежит идея, что истинное распределение данных можно хорошо приблизить эмпирическим. Таким образом может быть получено приближенное распределение интересующей нас статистики. Пусть из исходной популяции с распределением F (x) была получена выборка размера n. Тогда эмпирическая функция распределения Fn(x) = n1 Pni=1 I(Xi 6 x) равномерно почти наверное стремится к F (x) при n ! 1. Это свойство мотивирует использование бутстрапа.

Чтобы более наглядно пояснить бутстраповский метод, рассмотрим простейший пример. Пусть у нас есть всего два наблюдения:

y1

=

2 ;

y2

=

1 :

x1

 

1

x2

 

2

Допустим, нас интересует коэффициент регрессии y на x, т.е. yi = xi + "i. В этом случае МНК-оценка равна

=

x1y1 + x2y2

=

1 2 + 2 1

=

4

:

x12 + x22

 

 

b

 

12 + 22

 

5

 

Эмпирическая функция распределения данных есть

(x; y)0 = (

(1; 2)0

с вероятностью 1=2

(2; 1)0

с вероятностью 1=2

19

По отношению к этому распределению данные из двух наблюдений распределены следующим образом:

(x1; y1)0; (x2; y2)0 =

>

(1; 2)0

; (1; 2)0

с вероятностью 1=4

 

>

 

 

 

 

>

(2; 1)0

; (2; 1)0

с вероятностью 1=4

 

8

 

<

 

 

 

 

> (1; 2)0; (2; 1)0

с вероятностью 1=4

 

>

 

 

 

 

>

 

 

 

 

>

(2; 1)0

; (1; 2)0

с вероятностью 1=4

 

>

 

:

 

 

 

Это распределение и является бутстраповским. Соответственно, МНК-оценка распределена согласно ее бутстраповскому распределению

8 > 1=2 с вероятностью 1=4

<

b2 = 4=5 с вероятностью 1=2

>

: 2 с вероятностью 1=4

Используя это бутстраповское распределение, можно строить доверительные интервалы или тестировать гипотезы обычным образом.

Пример, рассмотренный нами, был чрезвычайно прост: размер исходной выборки был равен 2. В общем случае, когда мы имеем n наблюдений, количество вариантов для бутстраповских статистик имеет порядок nn. Таким образом, в вычислительном плане задача сильно усложняется по мере роста n.

2Приближение с помощью симуляций

Как упоминалось, при увеличении размера выборки объем вычислений для получения бутстраповского распределения быстро возрастает. Поэтому, как правило, процедура бутстрапирования осуществляется с помощью симуляций. Здесь мы приведем описательный алгоритм построения бутстраповских доверительных интервалов.

Бутстраповский алгоритм.

1.Выбрать количество псевдовыборок B (обычно хватает 1000). Для b = 1; 2; : : : ; B

построить псевдовыборки (z1; z2; : : : ; zn)b, вытягивая элементы псевдовыборок случайным образом с возвращением из исходной выборки (z1; : : : ; zn). Для каждой псевдовыборки вычислить псевдостатистику bb = b((z1; : : : ; zn)b).

2.Полученные псевдостатистики b1; : : : ; bB отсортировать в порядке возрастания. В качестве квантилей q 1 ; q1 2 взять значения b[B 1]; b[B(1 2)+1], на основе которых построить доверительный интервал.

20

Соседние файлы в предмете [НЕСОРТИРОВАННОЕ]