Добавил:
Upload Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:

ЭКОНОМЕТРИКА и математическая экономика / Анатольев С. Эконометрика для продолжающих. РЭШ. 2002

.pdf
Скачиваний:
92
Добавлен:
20.04.2015
Размер:
467.89 Кб
Скачать

ãäå Qzx = E[zx0], à Qe2zz = E[zz0e2] = E[zz0 2(x)]: Зная, что асимптотическая дис-

персия ОМНК-оценки равна Qxx=1

2 , рассмотрим разность

 

 

 

 

 

 

Vzz Qxx=1

2 = (E[zx0])

1

E[zz0 2(x)] (E[xz0])

1

 

E

 

xx0

 

1

 

 

 

 

 

=

 

 

 

2(x)

 

0

])

1

 

 

0

 

 

0

])

1

 

0

])

1

=

 

 

 

 

 

 

 

 

= (E[vu

 

 

E[vv

] (E[uv

 

 

]

(E[uu

 

 

 

 

 

 

 

 

 

= ( [

 

])

 

1 h

[

 

 

]

[

 

 

 

 

 

1

 

 

 

i

 

 

 

 

 

 

 

 

E

vu0

 

1

 

E

vv0

 

E

vu0

 

(E[uu0]) 1 E[uv0] (E[uv0]) 1 =

 

 

 

0

])

 

 

 

 

 

0

 

 

 

0

])

 

 

0:

 

 

 

 

 

 

 

 

 

 

 

= (E[vu

 

 

E[ww

] (E[uv

 

 

 

 

 

 

 

 

 

 

 

 

 

Здесь v = z (x), u = x= (x) è w = v E[vu0](E[uu0]) 1u. Таким образом, мы показали, что ОМНК-оценка асимптотически эффективна в указанном классе.

Результат. ОМНК-оценка является аналоговой оценкой, т.е. может быть получена из принципа аналогий. А именно, ОМНК-оценка получается из условия

E e

x

= 0

)

1 n

(yi xi0 )

x

= 0:

(x)

n i=1

(xii)

 

 

 

 

 

 

X

e

 

 

 

6Доступная ОМНК-оценка

Как уже было замечено, чтобы получить ОМНК-оценку, нам необходимо знать дисперсионную матрицу ошибок , главная диагональ которой напичкана величинами

2(xi), а на остальных местах стоят нули. Естественно полагать, что эти параметры являются неизвестными априори, поэтому они должны быть оценены. Плохо то, что для этого необходима модель для 2(x). Эту функцию можно (и нужно!) оценивать

непараметрически, но мы пока к этому не готовы.

Обычно предполагают, что дисперсия ошибок есть линейная функция от некоторой трансформации x:

2(x) = E[e2jx] = z0 ;

ãäå z есть некоторая трансформация x, например z = x2. Если предположение пра- вильное, то можно оценить скедастичную регрессию

e2 = z0 + "; E["jz] = 0:

Оценив исходную регрессию с помощью МНК и скедастичную регрессию, используя квадраты МНК-остатков вместо квадратов ошибок, также с помощью МНК, имеем:

 

 

 

1

ei = yi xi0 b = ei + xi0( b);

 

 

b =

Xi

zizi0!

 

b 2

+ 2 Xi

zixi0( b)ei + Xi

zi(xi0( b))2!

p

 

Xi

ziei

! :

41

Таким образом, мы получаем состоятельные оценки дисперсий ошибок:

b2(xi) = zi0b;

после чего, мы можем построить доступную оценку обобщенного метода наименьших квадратов (ДОМНК):

F =

n

2

(i xi0i)!

1 n

2

(ixii) = (X0

1X) 1X0

1y:

i=1

=1

e

X

x x

Xi

x y

b

b

b

 

b

 

 

 

 

 

 

 

 

Приведем алгоритм построения ДОМНК-оценки:

1.Используя МНК, оценить исходную регрессию и получить остатки ebi для i = 1; : : : ; n. Прогнать скедастичную регрессию, получить оценки b и построить оценки дисперсий ошибок b2(xi) (èëè b).

2.Построить ДОМНК-оценку

F =

n

2

(i xi0i)!

1 n

2

(ixii) = (X0

1X) 1X0

1y:

i=1

=1

e

X

x x

Xi

x y

b

b

b

 

b

 

 

 

 

 

 

 

 

Вообще говоря, такой алгоритм построения оценок дисперсии ошибок не гаранти-

рует их положительность. Ниже приведены способы избежать b2(xi) < 0.

1.Выбрать некоторое малое > 0. Положить b2(xi) = max(zi0b; ).

2.Выбросить те наблюдения, для которых b2(xi) < 0.

3. Положить 2

(xi) =

n1

n

2

(xi) < 0.

Pj=1 zj0 для тех наблюдений, для которых

b

 

 

b

b

 

Результат. Если скедастичная функция правильно специфицирована, то ДОМНК-

оценка eF

асимптотически

эквивалентна ОМНК-оценке

e, ò.å.

 

p

 

 

 

d

 

 

 

1

 

 

 

 

 

n( F

 

 

 

 

 

 

 

 

 

 

 

) ! N(0; Qxx= 2 ):

 

 

 

 

Состоятельная оценка асимптотическойe

дисперсии в этом случае есть

 

 

 

 

 

 

 

 

 

n

 

x x

!

1

 

 

 

 

 

 

 

 

 

 

V = n

i=1

 

 

:

 

 

 

 

 

 

 

 

 

2(i xi0i)

 

 

 

 

 

 

 

 

 

 

b

X

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

b

 

 

 

 

 

 

 

eF , òåì íå

Если скедастичная функция специфицирована неправильно, то оценка

менее, остается состоятельной и асимптотически нормальной:

 

pn( F ) ! N 0; Qxx=1

2 Qxx= 4e2 Qxx=1

2

;

 

 

 

 

 

 

 

d

 

 

 

 

 

 

 

 

 

 

 

 

e

42

где использованы следующие обозначения:

Qxx= 2 = E

z0 0

;

Qxx= 4e2 = E

(z0 0)2 e2

 

:

 

 

xx

 

 

 

xx

 

 

Состоятельная оценка асимптотической дисперсии в этом случае равна

 

 

xix0

!

1

xix0

 

 

xix0

!

1

V = n

Xi

 

Xi

 

ei

Xi

 

:

zi0

(zi0 )2

zi0

b

b

 

b

b

b

 

 

 

 

i

 

 

i

2

 

i

 

 

7Регрессия с неслучайной выборкой

В случае, когда наблюдения представляют собой неслучайную выборку, дисперсионная матрица ошибок = V ar[yjX] не является диагональной. Дисперсия МНК- оценки b = (X0X) 1X0y в этом случае есть

Var[bjX] = (X0X) 1X0 X(X0X) 1;

àдисперсия ОМНК-оценки e = (X0 1X) 1X0 1y åñòü

V ar[ejX] = (X0 1X) 1:

Чтобы построить пивотальную статистику в случае неслучайных наблюдений, необходимо параметризовать дисперсионную матрицу ошибок небольшим числом параметров.

8МНК и ОМНК в регрессиях на временных рядах

Рассмотрим следующую регрессионную модель:

yt = x0t + et; E[etjIt 1] = 0; E[e2t jIt 1] = 2(It 1);

ãäå f(xt; yt)gTt=1 стационарный и эргодичный процесс, а

It 1 = fyt 1; yt 2; : : : ; xt; xt 1; : : :g:

Примерами таких моделей могут служить:

Модель AR(p), ãäå xt = (yt 1; yt 2; : : : ; yt p)0.

Линейное предсказание обменного курса:

st+1 st = + (ft st) + et; E[etjIt 1] = 0;

ãäå ft цена форвардного контракта, а st текущий обменный курс.

43

ОМНК-оценка.

Линейное предсказание инфляции:

t+1 = + it + et; E[etjIt 1] = 0;

ãäå t+1 инфляция, а it процентная ставка.

Заметим, что условное математическое ожидание E[Y jX] íå åñòü X , поэтому не

следует ожидать хороших свойств в конечных выборках. Рассмотрим асимптотиче- ские свойства МНК- и ОМНК-оценок.

МНК-оценка. Ясно, что МНК-оценка состоятельна:

T! 1 T

b

X

p

Xt

=

xtxt0

xtyt ! :

 

t=1

=1

Это следует из того, что:

E[xtet] = E[E[xtetjIt 1]] = E[xtE[etjIt 1]] = 0:

Кроме того, из центральной предельной теоремы для последовательностей мартингальных приращений следует асимптотическая нормальность МНК-оценки:

p

 

d

1

1

;

 

 

T ( ) ! N(0; V ); V = Qxx

Qe2xxQxx

b

ãäå Qxx = E[xtx0t], Qe2xx = E[xtx0te2t ]: Недиагональные элементы матрицы Qe2xx равны 0, поскольку

E[xtetx0t jet j] = E[E[xtetx0t jet jjIt 1]] = E[xtE[etjIt 1]x0t jet j] = 0:

ОМНК-оценка в моделях без серийной корреляциии в ошибках, очевидно, тоже будет состоятельна и асимптотически нормальна. Выглядит ОМНКоценка следующим образом:

=

T

2(It

1)xt0!

1 T

2(It

1)yt:

t=1

=1

e

X

xt

 

 

Xt

xt

 

 

 

 

На практике ОМНК-оценка редко используется во временных рядах, поскольку требует знания или состоятельного оценивания скедастичной функции 2(It 1), которая

в принципе может зависеть от бесконечной предыстории It 1.

Теперь рассмотрим регрессионную модель на временных рядах более общего вида, с возможностью серийной корреляции в ошибках:

yt = x0t + et; E[etjIt q] = 0; E[e2t jIt q] = 2(It q);

ãäå It q = fyt q; yt q 1; : : : ; xt; xt 1; : : :g.

Примерами таких моделей могут служить:

44

Модель ARMA(p; q), ãäå xt = (yt q; yt q 1; : : : ; yt q p+1)0.

Линейное предсказание обменного курса:

st+q st = + (ft;q st) + et; E[etjIt q] = 0;

ãäå ft;q цена форвардного контракта на q периодов вперед, а st текущий обменный курс.

Линейное предсказание инфляции:

t+q = + it;q + et; E[etjIt q] = 0;

ãäå t+q инфляция, а it;q процентная ставка на q периодов вперед.

МНК-оценка.

T ! 1 T

XX

b =

xtxt0

xtyt:

 

t=1

t=1

Оценка остается состоятельной и асимптотически нормальной, т.е.

 

 

 

p

 

 

d

1

1

 

 

 

 

T (

;

 

 

 

 

) ! N(0; V ); V = Qxx

Qe2xxQxx

но матрица

Qe

xx

 

 

b

 

 

 

 

2

 

считается по формуле

 

 

 

 

 

 

 

 

 

q 1

 

 

 

 

 

 

 

 

 

Xj

 

 

 

Qe2xx = E[xtxt0et2] +

(E[xtxt0 jetet j] + E[xtxt0+jetet+j]):

 

 

 

 

 

 

 

=1

 

 

Сумма содержит конечное число компонент 2q 1, èáî äëÿ j > q 1

E[xtx0t jetet j] = E[E[xtXt0 jetet jjIt q]] = E[xtx0t jE[etjIt q]et j] = 0:

Чтобы состоятельно оценить асимптотическую дисперсию МНК-оценки V в случае

серийной корреляции ошибок, можно воспользоваться, например, формулой НьюиУэста.

ОМНК-оценка. ОМНК-оценка не используется в моделях с серийной корреляцией ошибок. Заметим,что в этом случае

6=

T

2(It

1)xt0!

1 T

2(It

1)yt:

=1

t=1

e

Xt

xt

 

 

X

xt

 

 

 

 

45

VЛинейные модели с инструментальными переменными

1Эндогенные переменные

Бывают случаи, когда условное среднее E[yjx] не является интересующим нас объектом. Приведем несколько примеров.

Пример 1. Пусть E[yjx ] = (x )0 , однако переменные x являются ненаблюдаемы- ми. Вместо них исследователь наблюдает переменные x = x + u, ãäå u независима от x è y. В этом случае МНК-оценка будет несостоятельной:

y = (x )0 + e = (x u)0 + e = x0 + v; v = e u0 ;

E[xv] = E[(x + u)(e u0 )] = E[uu0] 6= 0 )

p

:

b 9

В такой ситуации асимптотическое смещение оценки связано с ошибкой измерения. Пример 2. Пусть у нас есть система линейных уравнений

Cïðîñ

:

Q = 1P + e1

Предложение

:

Q = 2P + e2

ãäå e2

 

iid(0; I2):

e1

 

 

Очевидно, что в этом случае цены коррелируют с ошибками:

E[e1P ] 6= 0; E[e2P ] 6= 0:

Поэтому, используя МНК-оценку в регрессии Q íà P , мы получим

p E[QP ]b ! E[P 2] :

Исходную систему легко разрешить относительно выпуска и цен:

P

=

1

+ 2

1 1! e2 ;

Q

 

 

1

2 1

e1

откуда сразу же следует, что

E[QP ] =

2 1

; E[P 2] =

2

:

 

1 + 2

 

1 + 2

 

Таким образом, МНК-оценка не состоятельна ни для 1, íè äëÿ 2, а состоятельна для чего-то среднего между ними:

p

E[QP ]

=

2 1

:

 

2

b ! E[P 2]

 

 

46

условием валидности

В обоих примерах переменные, коррелирующие с ошибками, являются эндогеными,

èМНК-оценивание несостоятельно.

Определение. Переменная x в правой части структурного уравнения y = x0 + e

называется эндогенной, åñëè E[ejx] 6= 0.

Определение. Переменная z называется экзогенной для структурного уравнения y = x0 + e, åñëè E[ejz] = 0. В этом случае z может использоваться как инструмент для оценивания параметров уравнения.

Заметим, что в обычной регрессии условного среднего регрессоры являются экзогенными переменными, т.е. для модели

y = x0 + e; E[ejx] = 0

z = x является экзогенной переменной. МНК как раз и использует е¼ как инструмент.

2Точная идентификация

Рассмотрим случай, когда количество инструментов l совпадает с количеством регрессоров k (случай точной идентификации ). Пусть матрица Qzz = E[zz0] невырождена. Из определения инструментов следует, что E[ze] = 0: Это условие называется инструментов. Применяя к нему принцип аналогий, получим

n

1 Xzi(yi x0i bIV ) = 0; n

i=1

откуда получаем инструментальную оценку

n! 1 n

XX

bIV = zix0i ziyi: i=1 i=1

В матричном виде инструментальная оценка выглядит следующим образом:

bIV = (Z0X) 1Z0Y; Z = (z10 ; z20 ; : : : ; zn0 )0:

В конечных выборках инструментальная оценка смещена, однако является состоятельной и асимптотически нормальной:

 

 

E

Z; X

Z0X

1Z0E

Y Z; X] = ;

 

 

p

 

[bIV j

d] = (

)

[

j 1

62

1

 

 

 

 

;

 

n( IV ) ! N(0; V ); V = Qzx

Qe zzQxz

b

ãäå Qzx = E[zx0], Qe2zz = E[e2zz0]. Заметим, что вышепривед¼нная асимптотика справедлива только при выполнении условия релевантности : матрица Qzx должна быть

47

невырожденной. Состоятельные оценки матриц Q

zx

; Q 2

zz

строятся очевидным обра-

 

 

 

 

 

 

 

 

 

e

 

 

çîì:

 

n

 

1

n

 

 

 

 

 

 

 

1

 

 

 

 

 

 

 

 

b

 

Xi

zixi0

b

 

X

 

b

 

b

 

b

 

 

 

 

 

Qzx = n

=1

; Qe2zz = n

i=1

zizi0ei2

; ei = yi xi0

IV :

 

 

 

 

 

 

 

 

 

 

 

 

Заметим, что домножение инструментов слева на любую соразмерную невырожденную матрицу констант C не меняет вида инструментальной оценки bIV , è, åñòå- ственно, е¼ статистических свойств.

3Сверхидентификация

Рассмотрим случай, когда l > k (случай сверхидентификации ). Пусть матрица Qzz невырождена. Идея построения инструментальной оценки в этом случае состоит в следующем. Сначала найд¼м линейный по z предиктор x:

x = z + u; E[zu0] = 0:

Из последнего условия находим :

E[z(x z)0] = 0 ) 0 = (E[zz0]) 1E[zx0] = Qzz1Qzx:

Теперь, возвращаясь к исходной структурной форме, мы можем написать:

y = ( z + u)0 + e = ( z)0 + v; v = e + u0 :

Очевидно, выполняется соотношение

E[ zv] = E[z(e + u0 )] = 0;

поэтому параметр структурного уравнения можно записать как

= (E[ z( z)0]) 1E[ zy] = (QxzQzz1Qzx) 1QxzQzz1Qzy:

Применяя принцип аналогий, получим инструментальную оценку (называемую оцен-

êîé двухшагового метода наименьших квадратов ) для случая сверхидентификации:

2SLS =

0 n

xizi0

n

zizi0

1 n

zixi0

1 1 n

xizi0

n

zizi0

1 n

ziyi;

b

i=1

 

i=1

!

i=1

 

i=1

 

=1

!

i=1

 

@X

 

X

 

X

 

A X

 

Xi

 

X

 

или в матричной форме,

b2SLS = (X0Z(Z0Z) 1Z0X) 1X0Z(Z0Z) 1Z0Y:

48

Инструментальная оценка состоятельна и асимптотически нормальна, однако в общем случае не является асимптотически эффективной:

 

p

p

 

d

 

 

ãäå

b2SLS ! ;

 

n(b2SLS ) ! N(0; V2SLS);

V2SLS = (QxzQzz1Qzx) 1QxzQzz1Qe2zzQzz1Qzx(QxzQzz1Qxz) 1:

Особым случаем является случай условной гомоскедастичности, когда E[e2jz] =2 = const. В этом случае асимптотическая дисперсионная матрица упрощается, поскольку Qe2zz = 2Qzz :

V2SLS = 2(QxzQzz1Qzx) 1:

Заметим, что несмотря на присутствие двух шагов в названии, оценку можно под- считать сразу по одной формуле. В то же время понимание е¼ двухшаговой природы помогает в некоторых случаях лучше ориентироваться в свойствах оценки.

Аналогично случаю точной идентификации при сверхидентификации необходимо, чтобы ранг матрицы Qxz был равен количеству регрессоров k :

rank(Qxz) = k:

Замечание. Оценку b2SLS можно выразить как инструментальную оценку с точной

идентификацией:

2SLS =

=1 ixi0

!

 

i=1 iyi;

i = j=1 xjzj0

j=1 zjzj0

!

zi:

b

n

 

1

n

n

n

 

1

Xi

 

 

X

X

X

 

 

Здесь i трансформированные инструменты. Но с точки зрения асимптотической эффективности такая трансформация неоптимальна.

4Неполная идентификация

Если матрица Qzx имеет ранг меньше k, то условие идентификации не выполнено.

В инструментах не хватает информации, способной однозначно идентифицировать параметр. В этом случае инструментальные оценки будут иметь неприятные асимптотические свойства.

Пример. Рассмотрим следующую модель:

l = k = 1; y = x + e; E[ejz] = 0; E[xz] = 0:

49

Последнее равенство означает, что ранг Qxz равен 0, т.е. не выполнено условие ре-

левантности инструментов. Согласно центральной предельной теореме имеет место совместная сходимость:

n

1 X p

n

i=1

 

1

 

n

d

 

Xi

 

 

 

 

 

 

 

ziei ! N(0; Qz2e2 ); pn

 

=1

 

 

 

d

zixi ! N(0; Qz2x2 ):

Таким образом, инструментальная оценка уже не будет асимптотически нормальной:

 

Pziixii

 

1

Pi zixi

 

IV =

= + p1n

! + D;

b

z y

 

pn

i ziei

d

P

 

 

 

P

 

 

 

 

 

 

 

 

ãäå D некое негауссовское распределение с тяж¼лыми хвостами. Таким образом,

асимптотическое распределение оценки не является асимптотически нормальным и даже не имеет конечного среднего.

Если у нас есть подозрение, что инструменты нерелевантные, стоит вначале протестировать гипотезу: H0 : E[xz] = 0, и если эта гипотеза отвергается, то инструмент над¼жный. На практике чаще всего руководствуются значением F-статистики при линейной регрессии x на z.

5Бутстрапирование инструментальных оценок

Процедура бутстрапа для инструментальных оценок практически ничем не отлича- ется от построения бутстраповского распределения для обычной статистики от независимых наблюдений. Есть, правда, тонкий момент в случае сверхидентификации.

Случай l = k.

IV =

zixi0 1

X

ziyi; IV

=

zi xi0 1

zi yi :

b

X

b

 

X

X

Если оценка асимптотической дисперсионной матрица выглядит как

VbIV = n

Xzixi0

 

Xzizi0ebi

Xxizi0

;

 

 

1

2

 

1

 

 

 

 

 

то е¼ бутстраповский аналог

VIV

= n

zi xi0 1

X

zi zi0ei 2

xi zi0 1

:

b

 

X

b

X

 

Случай l > k. Заметим, что хотя в популяции выполнено условие E[ze] = 0, â

выборке оно нарушается, ибо

n

1 X

n

ziebi 6= 0:

i=1

50