Ведение в социально - экономическую статистику. Учебник. Новосибирск, 2004. 739 с
.pdf8.5. Метод инструментальных переменных |
275 |
Если взять от обеих частей математическое ожидание, то получится
E(y x) = E(y zα),
где мы учли, что инструменты некоррелированы с ошибкой, E(y ε) = 0.
Заменяя теоретические моменты на выборочные, получим следующие нормальные уравнения, задающие оценки a:
Myx = Myz a,
где Myx = N1 Y X и Myz = N1 Y Z. Очевидно, что эти оценки совпадут с (8.9). Фактически, мы применяем здесь метод моментов.
Метод инструментальных переменных можно рассматривать как так называемый двухшаговый метод наименьших квадратов. (О нем речь еще пойдет ниже в пункте 10.3.)
1-й шаг. Строим регрессию каждого фактора Zj на Y . Получим в этой регрессии расчетный значения Zjc. По формуле расчетных значений в регрессии
Zjc = Y (Y Y )−1 Y Z. Заметим, что если Zj входит в число инструментов, то по этой формуле получим Zjc = Zj , т.е. эта переменная останется без изменений. Поэтому данную процедуру достаточно применять только к тем факторам, которые не являются инструментами (т.е. могут быть коррелированы с ошибкой). В целом для всей матрицы факторов можем записать Zc = Y (Y Y )−1 Y Z.
2-й шаг. В исходной регрессии используются Zc вместо Z. Смысл состоит в том, чтобы использовать факторы «очищенные от ошибок».
Получаем следующие оценки:
a2M = Zc Zc −1 Zc x =
= Z Y Y Y −1 Y Y Y Y −1 Y Z −1 Z Y Y Y −1 Y x = = Z Y Y Y −1 Y Z −1 Z Y Y Y −1 Y x = aIV .
Видим, что оценки совпадают.
Если записать оценки в виде aIV = (Zc Z)−1 Zc x, то видно, что обобщенный метод инструментальных переменных можно рассматривать как простой метод инструментальных переменных с матрицей инструментов Zc.
Такая запись позволяет обосновать обобщенный метод инструментальных переменных. Если исходных инструментов Y больше, чем факторов Z, и мы хотим построить на их основе меньшее количество инструментов, то имеет смысл сопоставить каждому фактору Zj в качестве инструмента такую линейную комбинацию исходных инструментов, которая была бы наиболее сильно коррелирована с Zj . Этому требованию как раз и удовлетворяют расчетные значения Zjc.
8.5. Метод инструментальных переменных |
277 |
Т.е. если rank Y < n + 1, то уравнение неидентифицируемо, т.е. невозможно вычислить оценки (8.8). Таким образом, количество инструментов (включая константу) должно быть не меньше n + 1 (количество регрессоров, включая константу). Если rank Y > n + 1, то говорят, что уравнение сверхидентицировано. Если количество инструментов равно n + 1, то это точная идентификация.
Если возможен случай сверхидентификации, то это обобщенный метод инструментальных переменных. При точной идентификации ( rank Y = n + 1) получаем собственно классический метод инструментальных переменных.
Таким образом, необходимое условие идентификации имеет следующий вид:
rank Y rank Z(= n + 1).
Это так называемое порядковое условие идентификации, условие на размерность матриц.
Словесная формулировка порядкового условия:
Количество инструментов Y должно быть не меньше количества регрессоров Z (учитывая константу).
Заметим, что можно сначала «вычеркнуть» общие переменные в Z и Y и смотреть только на количество оставшихся. Количество оставшихся инструментов должно быть не меньше количества оставшихся регрессоров.
Почему это только необходимое условие? Пусть, например, некоторый фактор Zj ортогонален Y . Тогда Zjc = 0, и невозможно получить оценки aIV , т.е. данное условие не является достаточным.
Необходимое и достаточное условие идентификации формулируется следующим образом:
Матрица Zc имеет полный ранг по столбцам: rank Zc = n + 1.
Это так называемое ранговое условие идентификации.
Встречаются случаи, когда ранговое условие идентификации соблюдается, но матрица Zc близка к вырожденности, т.е. в Zc наблюдается мультиколлинеарность. Например, если инструмент Zj является слабым ( Zj и Y почти ортогональны), то Zc близка к вырожденности. Один из способов проверки того, является ли инструмент слабым, состоит в анализе коэффициентов детерминации и F -статистик в регрессиях на первом шаге.
8.6. Упражнения и задачи |
279 |
и истинную матрицу ковариации для ОМНК-оценки |
|
(aомнк = Z Ω−1Z −1 Z Ω−1X ): |
|
E (aомнк − α) (aомнк − α) = σ2 (Z D DZ) = σ2 |
Z Ω−1Z −1 . |
Результат поясните. |
|
1.3.Используйте 10 из 100 выборок, чтобы посчитать по каждой выборке значения следующих оценок:
–МНК-оценки
a = (Z Z)−1 Z X ;
–ОМНК-оценки
aомнк = Z Ω−1Z −1 Z Ω−1X ;
–МНК-оценки остаточной дисперсии
sˆ2 |
= |
(x − Za) (x − Za) |
; |
|
|
||
e |
|
|
N − n − 1 |
|
|
||
|
|
|
|
|
|||
– ОМНК-оценки остаточной дисперсии |
|||||||
sˆ2 |
|
|
= |
(x − Zaомнк) Ω−1 (x − Zaомнк) |
. |
||
ej омнк |
|
N − n |
− 1 |
||||
|
|
|
|
Объясните результаты.
1.4.Вычислите среднее и дисперсию для 10 выборок для каждого из параметров, полученных в упражнении 1.3 и сравните эти средние значения с истинными параметрами.
1.5.На основе упражнения 1.3 рассчитайте Sa21 омнк, который является первым диагональным элементом матрицы sˆ2e омнк Z Ω−1Z −1 и Sa21 , который является первым диагональным элементом матрицы sˆ2e (Z Z)−1 . Сравните различные оценки Sa21 и Sa21 омнк друг с другом и с соответствующими значениями из упражнения 1.2.
1.6.На основе результатов упражнений 1.3 и 1.5 рассчитайте значения t-статис- тики, которые могут быть использованы для проверки гипотез: H0 : α1 = 0.
1.7.Повторите упражнение 1.3 для всех 100 выборок, постройте распределения частот для оценок и прокомментируйте результаты.
280 Глава 8. Нарушение гипотез основной линейной модели
Упражнение 2
Предположим, есть данные, состоящие из 100 выборок X , по 20 значений в каждой, сгенерированных при помощи моде-
Таблица 8.2 |
ли X = Zα + ε = α1z1 + α2z2 + 1N β + ε, где εi — нормально |
||||||||||
|
|
|
|||||||||
z1 |
z2 |
1N |
и независимо распределенная случайная величина с E (εi) = 0, |
||||||||
E ε2 |
= σ2 |
и σ2 = e(γ1zi2+γ2). Наблюдения за X были полу- |
|||||||||
|
|
|
|||||||||
|
|
|
|||||||||
|
|
|
i |
i |
i |
|
|
|
|
|
|
13,9 |
364 |
1 |
чены с использованием следующих значений параметров: α = |
||||||||
|
|
|
= (α1 |
α2 |
β) = ( |
1.410, 0.080, 56.962) и γ = (γ1 γ2) |
= |
||||
15,6 |
390 |
1 |
|||||||||
|
|
− |
|
|
|
|
|
||||
|
|
|
= (0.25, −2) , а матрица значений факторов, упорядоченных |
||||||||
|
|
|
|||||||||
18,8 |
411 |
1 |
в соответствии с величиной |
z2 , имеет следующий вид (табл. |
|||||||
27,4 |
459 |
1 |
8.2). |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
||||
|
|
|
|
|
|
||||||
24,5 |
506 |
1 |
2.1. Найдите матрицу ковариации для |
|
|
||||||
23,7 |
515 |
1 |
|
– ОМНК-оценки aомнк = Z Ω−1Z −1 Z Ω−1X ; |
|
||||||
|
|
|
|
|
|||||||
26,9 |
517 |
1 |
|
|
|||||||
|
– МНК-оценки a = (Z Z)−1 Z X . |
|
|||||||||
22,2 |
538 |
1 |
|
|
|||||||
Что вы можете сказать об относительной эффективности |
|||||||||||
|
|
|
|||||||||
|
|
|
|||||||||
26,8 |
541 |
1 |
этих оценок? |
|
|
|
|
|
|||
27,7 |
551 |
1 |
2.2. Используйте 10 из 100 выборок, чтобы посчитать по |
||||||||
19,3 |
576 |
1 |
каждой выборке значения следующих оценок: |
|
|||||||
|
|
|
|
– МНК-оценки a = (Z Z)−1 Z X ; |
|
||||||
29,1 |
604 |
1 |
|
|
|||||||
25,3 |
610 |
1 |
|
|
|
|
N |
−1 |
N |
|
|
|
|
|
|
– оценки γ |
= |
yiyi |
|
yi ln(ei2), где yi |
= |
||
|
|
|
|
|
|||||||
25,3 |
616 |
1 |
|
|
|
i=1 |
|
i=1 |
|
||
|
|
|
|
= (zi2, 1) и ei = xi − zia; |
|
|
|
||||
31,1 |
636 |
1 |
|
|
|
|
|||||
|
– ОМНК-оценки a, используя найденую оценку γ. |
|
|||||||||
|
|
|
|
|
|||||||
31,2 |
645 |
1 |
|
|
|||||||
Сравните все эти оценки друг с другом и с соответствую- |
|||||||||||
|
|
|
|||||||||
33,3 |
651 |
1 |
|||||||||
щими истинными значениями. |
|
|
|
||||||||
29,5 |
653 |
1 |
2.3. На основе упражнения 2.2 рассчитайте Sa21 омнк, кото- |
||||||||
|
|
|
|||||||||
30,3 |
682 |
1 |
рый является первым диагональным элементом матри- |
||||||||
|
|
|
цы sˆe2 |
омнк(Z Ω−1Z)−1 , |
Sa21 , который является первым |
||||||
24,7 |
697 |
1 |
|||||||||
диагональным элементом матрицы sˆ2 (Z Z)−1, а также |
|||||||||||
|
|
|
e
Sa21 Уайта, который является первым диагональным элементом скорректированной оценки ковариационной матрицы (оценка Уайта или устойчивая к гетероскедастичности оценка). Сравните различные оцен-
ки Sa21 , Sa21 омнк и Sa21 Уайта друг с другом и с соответствующими значениями из упражнения 2.1.
282 |
Глава 8. Нарушение гипотез основной линейной модели |
Сравните все эти оценки друг с другом и с соответствующими истинными значениями.
3.3.Возьмите те же выборки, что и в упражнении 3.2, и проверьте гипотезу об автокорреляции ошибок.
3.4.Найдите скорректированную оценку ковариационной матрицы, устойчивую к гетероскедастичности и автокорреляции (оценку Ньюи—Уэста).
3.5.Выполните упражнение 3.2 для всех 100 выборок и, используя результаты, оцените математическое ожидание и матрицу среднеквадратических ошибок для каждой оценки. Есть ли среди оценок смещенные? Что можно сказать об относительной эффективности МНК-оценки и ОМНК-оценки?
Упражнение 4
Для уравнения X = Zoα+ε = −1.410z10 +0.080z20 +1N 56.962+ε, z1 = z10 +εz1 , z2 = z20 + εz2 и при предположении, что εi N (0, 21.611), εz1 N (0, 21.700)
и εz2 N (0, 21.800), были генерированы 20 значений выборки. Результаты приведены в таблице 8.3.
Предполагая, что истинная матрица факторов Z0 неизвестна, выполните следующие задания:
4.1.Найдите МНК-оценки a = (Z Z)−1 Z X параметров уравнения регрессии
X = Zα + ε = α1z1 + α2z2 + 1N β + ε.
4.2. Рассчитайте ковариационную матрицу ошибок измерения факторов — W и ковариационный вектор — w и оцените параметры регрессии как
a = (M − W )−1(m − w).
4.3.Найдите оценку через ортогональную регрессию.
4.4.Сравните эти все оценки друг с другом и с соответствующими истинными значениями.
Задачи
1.Какие свойства МНК-оценок коэффициентов регрессии теряются, если ошибки по наблюдениям коррелированы и/или имеют разные дисперсии?
2.Как оцениваются параметры уравнения регрессии, если известна матрица ковариации ошибок и она не диагональна с равными элементами по диагонали?