Добавил:
Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:

Ведение в социально - экономическую статистику. Учебник. Новосибирск, 2004. 739 с

.pdf
Скачиваний:
43
Добавлен:
22.08.2013
Размер:
4.02 Mб
Скачать

9.3. Упражнения и задачи

313

6.Baltagi, Badi H. Econometrics, 2nd edition, Springer, 1999. (Ch. 13).

7.Davidson, Russel, Mackinnon, James. Estimation and Inference in Econometrics, No. 9, Oxford University Press, 1993. (Ch. 7).

8.Greene W.H. Econometric Analysis, Prentice-Hall, 2000. (Ch. 8).

9.Judge G.G., Hill R.C., Griffiths W.E., Luthepohl H., Lee T. Introduction to the Theory and Practice of Econometric. John Wiley & Sons, Inc., 1993. (Ch. 10).

10.Maddala G.S. Introduction to Econometrics, 2nd ed., Prentice Hall, 1992. (Ch. 8).

11.Ruud Paul A. An Introduction to Classical Econometric Theory, Oxford University Press, 2000. (Ch. 27).

12.Wooldridge Jeffrey M. Introductory Econometrics: A Modern Approach, 2nd ed., Thomson, 2003. (Ch. 7, 17).

Глава 10

Оценка параметров систем уравнений

Пусть теперь имеется несколько изучаемых переменных, для каждой из которых существует свое уравнение регрессии. В совокупности эти уравнения образуют систему, которая является невзаимозависимой, если одни изучаемые переменные не выступают факторами-регрессорами для других изучаемых переменных. Если изучаемые переменные возникают не только в левых, но и правых частях уравнений, то такие системы называются одновременными или взаимозависимыми.

10.1. Невзаимозависимые системы

В этом пункте используется сокращенная форма записи уравнений регрессии:

 

 

ˆ ˆ

(10.1)

 

 

X = ZA + ε,

где

ˆ

N × k-матрица центрированных наблюдений за изучаемыми перемен-

X

ными,

 

 

 

ˆ

N × n-матрица центрированных наблюдений за факторными перемен-

 

Z

ными,

A n × k-матрица параметров уравнений регрессии,

ε N × n-матрица ошибок изучаемых переменных (остатков по наблюдениям).

10.1. Невзаимозависимые системы

315

Относительно ошибок предполагается, что в каждом наблюдении их математическое ожидание равно нулю, матрица ковариации размерности k × k одинакова и равна Ω ( Ω — вещественная, симметричная, положительно определенная матрица), и что они не коррелированы по наблюдениям.

Оценивать параметры этой системы можно отдельно по каждому уравнению:

A = M 1m,˜

(10.2)

где 1 ˆ ˆ, 1 ˆ ˆ , или через обычные операторы МНК-оценива-

M = N Z Z m˜ = N Z X

ния (8.1), записанные последовательно для всех уравнений системы al = M 1ml, l = 1, . . . , k.

Т.е. факт коррелированности ошибок разных изучаемых переменных ( Ω = Ik ) не создает дополнительных проблем.

Действительно, преобразованием в пространстве изучаемых переменных легко перейти в ситуацию, когда ошибки изучаемых переменных не коррелированы.

Пусть матрица C такая, что Ω = C 1C1 (такое представление допускает любая вещественная симметричная положительно определенная матрица, см. Приложение A.1.2). Умножим обе части (10.1) справа на эту матрицу:

ˆ

ˆ

(10.3)

XC = ZAC + εC.

Новые ошибки изучаемых переменных во всех наблюдениях оказываются не коррелированными:

E(C εi

E(εi εi )=Ω

εiC) = IN ,

где εi — вектор-строка ошибок в i-том наблюдении.

Теперь уравнения системы не связаны между собой, и их можно оценить обычным МНК по отдельности, что, очевидно, приводит к матричному оператору AC = M 1mC˜ , который эквивалентен (10.2).

Что и требовалось доказать.

Ситуация резко усложняется, если для коэффициентов матрицы A имеются априорные ограничения.

Пусть, например, эта матрица имеет следующую структуру:

a1

0

· · ·

0

 

0

a2

· · ·

0

,

.

. .

.

 

.

 

.

.

 

 

.

 

.

.

 

 

. .

 

0

0

· · ·

ak

 

316 Глава 10. Оценка параметров систем уравнений

где al nl -вектор-столбец коэффициентов в l-м уравнении (для l-й изучаемой

k

переменной), nl = n, т.е. многие элементы матрицы A априорно приравнены

l=1

нулю.

Фактически это означает, что для каждой изучаемой переменной имеется свой

ˆ

ˆ

ˆ

ˆ

,

набор объясняющих факторов с N ×nl-матрицей наблюдений Zl

Z

= Z1

· · ·Zk

и система уравнений (10.1) представляется как совокупность внешне не связанных между собой уравнений:

ˆ

ˆ

(10.4)

Xl = Zlal + εl , l = 1, . . . , k.

Сразу можно заметить, что теперь оператор (10.2) применить невозможно, т.к. система нормальных уравнений, решением которой является этот оператор, записывается следующим образом:

 

 

 

 

 

M11a1

· · ·

 

M1k ak

m11

· · ·

m1k

 

 

 

 

 

 

 

.

 

. .

 

 

 

.

.

 

 

.

,

(10.5)

 

 

 

 

 

.

 

.

 

 

.

= . . .

 

.

 

 

 

 

 

.

 

 

 

 

 

.

.

 

. .

 

 

 

 

 

 

 

Mk1a1

· · ·

 

Mkkak

mk1

· · ·

mkk

 

 

где M

=

1

Zˆ Zˆ

,

m

ll

=

1

Zˆ Xˆ

, т.е. вектор оценок параметров каждого урав-

 

 

ll

 

N l l

 

 

 

N

 

l

l

 

 

 

 

 

 

 

нения должен удовлетворять k взаимоисключающим, в общем случае, системам уравнений.

Правильная оценка параметров регрессии дается решением следующих уравнений:

 

 

k

 

 

 

k

 

 

 

 

 

 

 

 

 

 

 

 

ωll1Mll al = ωll1mll , l = 1, . . . , k,

 

 

 

l =1

 

l =1

 

 

 

 

 

 

 

 

где ωll1 — элемент матрицы Ω1.

 

 

 

 

 

 

 

 

Или в матричной записи:

 

 

 

 

 

 

 

 

 

ω1M a +

· · ·

+ω1M a

ω1m

11

+

· · ·

+ω1m

1k

11

11 1

1k

1k k

11

 

1k

 

.

.

.

 

.

=

.

 

 

.

.

 

.

, (10.6)

 

.

 

.

.

.

 

 

 

.

.

 

.

 

 

.

 

.

 

 

 

 

.

 

ω1M a +

· · ·

+ω1M a

ω1m

k1

+

· · ·

+ω1m

kk

k1

k1 1

kk

kk k

k1

 

kk

которая при сравнении с (10.5) оказывается результатом умножения в (10.5) всех Mll и mll на ωll1 и сложения столбцов в обеих частях этого выражения.

10.1. Невзаимозависимые системы

 

 

 

 

 

 

 

 

 

 

 

317

Для доказательства этого утверждения необходимо перегруппировать уравнения си-

стемы так, чтобы

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

ˆ

 

 

ˆ

 

0

· · ·

 

 

a1

 

ε1

 

 

X1

 

 

Z1

 

 

 

 

 

˜

 

,

˜

 

ˆ

 

.

.

 

,

a˜ =

 

, ε˜ =

 

,

X = ˆ

Z =

0

 

 

.

a2

ε2

 

X2

 

 

Z2

 

 

 

 

 

 

 

.

 

 

. .

.

 

.

.

 

 

 

.

 

.

 

 

.

 

 

.

 

.

 

.

 

 

.

 

.

 

 

.

 

 

.

 

 

 

 

 

 

.

 

.

 

 

˜

т.е. если забыть об особой структуре матрицы Z , формально имеется одна изучаемая

переменная, для которой имеется N · k «наблюдений».

Теперь система (10.4) записывается следующим образом:

˜

˜

X = Za˜ + ε,˜

и применение простого МНК приводит к получению обычных оценок уравнений в отдельности:

al = Mll1mll.

Однако такой подход неприемлем, надо применять ОМНК, поскольку остатки коррелированы по «наблюдениям», ибо в соответствии со сделанными предположениями

E(ε˜ε˜ ) = Ω IN ,

где — операция прямого умножения матриц (см. Приложения A.1.1 и A.1.2).

Из (8.1) следует, что система нормальных уравнений ОМНК в данном случае выглядит так:

Z˜ 1 IN Z˜a˜ = Z˜ 1 IN X˜ .

 

 

(10.7)

Легко убедиться, что

 

 

 

 

 

 

 

 

 

 

 

 

 

ω111Zˆ11

 

 

 

 

.

 

 

 

 

 

ω121Zˆ12 ..

 

 

Z˜ 1

 

IN =

ω1Zˆ

ω1Zˆ .. . .

 

 

 

21 21

22

 

 

22

 

 

 

 

 

 

.

.

.

 

.

.

 

 

 

 

 

.

 

.

 

.

 

 

 

 

.

 

 

 

 

 

Умножение этой матричной конструкции справа на

 

˜

и деление на N дает блочную

Z

матрицу ll1Mll }, которая является матрицей системы (10.6), а умножение ее

˜

и деление на N

— вектор

1

mll

, являющийся правой частью

справа на X

ωll

l

системы (10.6).

Таким образом, (10.7) эквивалентна (10.6). Что и требовалось доказать.

Эта оценка совпадает с обычной МНК-оценкой al = Mll1mll , если матрица Ω диагональна, т.е. ошибки изучаемых переменных не коррелированы.

318

Глава 10. Оценка параметров систем уравнений

10.2.Взаимозависимые или одновременные уравнения. Проблема идентификации

Далее в этом разделе уравнения регрессии записываются в форме со скрытым свободным членом.

X N × k-матрица наблюдений за изучаемыми переменными x;

Z N × (n + 1)-матрица наблюдений за независимыми факторами z;

B k × k-матрица параметров регрессии при изучаемых

переменных;

B = Ik , иначе система была бы невзаимозависимой; |B| = 0 и βll

= 1 — усло-

вия нормализации, т.е. предполагается, что, в конечном счете, в левой части l-го уравнения остается только l-я переменная, а остальные изучаемые переменные переносятся в правую часть;

A — (n + 1) ×k-матрица параметров регрессии (последняя строка — свободные члены в уравнениях);

ε N × k-матрица значений случайных ошибок по наблюдениям;

XB = ZA + ε.

(10.8)

Такая запись одновременных уравнений называется структурной формой. Умножением справа обеих частей этой системы уравнений на B1 она приводится к форме, описанной в предыдущем пункте. Это — приведенная форма системы:

X = ZAB1 + εB1.

D = AB1 — (n + 1) × k-матрица параметров регрессии приведенной формы. Как показано в пункте 10.1, для их оценки можно использовать МНК:

D = (Z Z)1Z X.

Таким образом, матрица D оценивается без проблем, и ее можно считать известной. Однако задача заключается в оценке параметров B и A системы в приведенной форме. Эти параметры, по определению, удовлетворяют следующим условиям:

DB − A = 0

(10.9)

или W H = 0, где

 

 

W — (n + 1) × (n + k + 1)-матрица

D In+1

,

B

.

 

H — (n + k + 1) × k-матрица

 

−A

10.2 Взаимозависимые или одновременные уравнения

319

Это — условия для оценки параметров структурной формы. В общем случае эти условия достаточно бессмысленны, т.к. они одинаковы для параметров всех уравнений. Они описывают лишь множество допустимых значений параметров (одинаковое для всех уравнений), поскольку для n + k + 1 параметров каждого уравнения структурной формы имеется только n + 1 одинаковых уравнений. Необходимы дополнительные условия, специальные для каждого уравнения.

Пусть для параметров l-го уравнения кроме требования

W Hl = 0 ((Z Z)1Z XBl − Al = 0)

(10.10)

имеется дополнительно rl условий:

 

 

Rl Hl = 0,

 

(10.11)

где Rl rl × (n + k + 1)-матрица дополнительных условий,

 

Bl

параметров l-го уравнения —

Hl — (n + k + 1)-вектор-столбец

−Al

l-й столбец матрицы H .

W

Hl = WlHl = 0 — общие условия для определения структурных пара-

Rl

метров l-го уравнения, где Wl — (n + rl + 1) × (n + k + 1)-матрица.

Они позволяют определить искомые параметры с точностью до постоянного множителя (при выполнении условий нормализации βl = 1 параметры определяются однозначно), если и только если ранг матрицы Wl равен n + k. Для этого необходимо, чтобы

rl k − 1.

(10.12)

Однако, это условие не является достаточным. Имеется необходимое и достаточное условие для определения параметров l-го уравнения (более операциональное, чем требование равенства n + k ранга матрицы Wl ):

rank(Rl H) = k − 1.

(10.13)

Доказательство данного утверждения опускается по причине сложности.

Теперь вводятся определения, связанные с возможностью нахождения параметров уравнения структурной формы: l-е уравнение не идентифицировано, если rl < k − 1; оно точно идентифицировано, если rl = k − 1 и ранг Wl равен n + k; сверхидентифицировано, если rl > k − 1. В первом случае параметры не

320

Глава 10. Оценка параметров систем уравнений

могут быть оценены, и, хотя формально, например, используя МНК, оценки можно получить, они никакого смысла не имеют; во втором случае параметры уравнения оцениваются однозначно; в третьем — имеется несколько вариантов оценок.

Обычно строки матрицы Rl являются ортами, т.е. дополнительные ограничения исключают некоторые переменные из структурной формы. Тогда, если kl и nl — количества, соответственно, изучаемых переменных, включая l-ю, и независимых факторов в l-м уравнении, то для его идентификации необходимо, чтобы

kl + nl n + 1.

(10.14)

(10.12)

nl + kl n + 1.

По определению, rl = n − nl + k − kl k − 1

В таком случае условие (10.13) означает, что матрица, составленная из коэффициентов во всех прочих уравнениях, кроме l-го, при переменных, которые исключены из l-го уравнения, должна быть не вырождена. При этом l-й столбец матрицы RlH из (10.13), равный нулю, как это следует из (10.11), исключается из рассмотрения.

Для иллюстрации введенных понятий используется элементарная модель равновесия спроса и предложения на рынке одного товара в предположении, что уравнения спроса и предложения линейны (в логарифмах):

s = b21p + c1 + ε1 — предложение, d = −b22p + c2 + ε2 — спрос,

где p — цена, b21, b22 — эластичности предложения и спроса по цене, s, d и p — логарифмы предложения, спроса и цены.

Наблюдаемой переменной является фактический объем продаж x, и, предположив, что в действительности рынок находится в равновесии: x = s = d, эту модель в структурной форме (10.8) можно записать следующим образом:

1

1

(10.15)

[ x p ]

= [ c1 c2 ] + [ ε1 ε2 ].

b21 b22

В такой записи условия нормализации не выполнены, т.к. в левой части обоих уравнений находится одна и та же переменная x; понятно, что принципиального значения эта особенность модели не имеет.

Следует напомнить, что одной из главных гипотез применения статистических методов вообще и МНК в частности является g1: уравнения регрессии представляют истинные зависимости, и речь идет лишь об оценке параметров этих истинных зависимостей. В данном случае это означает, что на спрос и предложение влияет только

10.2 Взаимозависимые или одновременные уравнения

321

x

s

 

d

p

Рис. 10.1

цена, и линии спроса и предложения в плоскости, абсциссой которой является цена, не меняют своего положения. Поэтому наблюдаемые пары (p, x) сконцентрированы вокруг единственной точки равновесия, облако наблюдений не имеет вытянутостей, и зависимости x от p статистически выявить невозможно (рис. 10.1).

Статистически оба уравнения одинаковы, и нет оснований считать коэффициент регрессии, например, x по p, эластичностью спроса или предложения по цене. Более того, в данном случае эта регрессия будет не значима. Эти уравнения не идентифицированы. Действительно, k = 2, n = 0, r1 = r2 = 0, и необходимое условие идентификации (10.12) для обоих уравнений не выполнено.

Пусть речь идет о товаре, имеющем сельскохозяйственное происхождение. Тогда его предложение зависит от погодных условий, и в модель следует ввести переменную z1 — некий индекс погоды в течение сельскохозяйственного цикла. В правую часть соотношения (10.15) вводится дополнительное слагаемое:

z1 [ a11 0 ] .

(10.16)

Если модель (10.15, 10.16) истинна (гипотеза g3), то подвижной становится линия предложения (погодные условия в разные сельскохозяйственные циклы различны), и облако фактических наблюдений вытягивается вдоль линии спроса. Регрессия x на p дает оценку эластичности спроса по цене (рис. 10.2). В этой ситуации уравнение предложения по-прежнему не идентифицировано, но для уравнения спроса условия идентификации (10.12) выполнены, и это уравнение идентифицировано.

s1

s

2

s3

 

 

x

 

s4

 

 

 

 

 

s5

 

 

 

 

 

 

 

 

 

d

 

 

 

 

 

p

 

Рис. 10.2

 

 

 

 

 

322

Глава 10. Оценка параметров систем уравнений

x

s

 

 

d6

 

d5

 

d4

 

d3

 

d2

 

d1

 

p

 

Рис. 10.3

Действительно: k = 2, n = 1, r1 = 0, r2 = 1 и r1 < k − 1, r2 = k − 1. Более убедительно этот результат можно получить, используя необходимые и достаточные условия идентификации (10.13).

Матрица H в этих условиях имеет следующий вид:

 

1

1

H =

−b21

b22 .

 

−a11

0

 

c1

c2

Матрица R1 — пустая ( rl = 0), и условия (10.13) для первого уравнения не выполняются. Для второго уравнения R2 = [ 0 0 1 0 ], и матрица R2H равна [ −a11 0 ], т.е. ее ранг равен единице, и условие (10.13) выполнено. А матрица, составленная из коэффициентов во всех прочих уравнениях, кроме второго, при переменных, которые исключены из второго уравнения, есть [−a11], т.е. она не вырождена.

Теперь рассматривается другая возможность: изучаемый товар входит в потребительскую корзину, и спрос на него зависит от доходов домашних хозяйств. В модель вводится переменная z2 доходов домашних хозяйств, т.е. в правую часть соотношений (10.15) добавляется слагаемое

z2 [ 0 a22 ] .

(10.17)

Если истинна модель (10.15, 10.17), то подвижной окажется линия спроса (разные домашние хозяйства имеют разные доходы), и регрессия x на p даст оценку эластичности предложения по цене (рис. 10.3). В такой ситуации не идентифицировано уравнение спроса. Уравнение предложения идентифицировано: k = 2, n = 1, r1 = 1, r2 = 0 и r1 = k − 1, r2 < k − 1.

Понятно, что можно говорить о модели, в которую входят обе отмеченные переменные: и z1 и z2 . Это — модель (10.15, 10.16, 10.17). В правую часть (10.15)

Соседние файлы в предмете Политология