Добавил:
Upload Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:
Бардасов - Эконометрика.pdf
Скачиваний:
358
Добавлен:
06.03.2016
Размер:
2.47 Mб
Скачать

О присутствии мультиколлинеарности сигнализируют некоторые внешние признаки модели:

некоторые из оценок коэффициентов имеют неправильные с точки зрения экономической теории знаки или неоправданно большие значения;

небольшое изменение исходных данных (добавление или изъятие небольшой порции наблюдений) приводит к существенному изменению оценок коэффициентов;

большинство или даже все оценки коэффициентов регрессии оказываются статистически незначимо отличающимися от нуля (при проверке с помощью t-критерия), в то время как многие из

них в действительности имеют отличные от нуля значения, а модель в целом является значимой при проверке с помощью F-статистики.

§ 3. Методы устранения мультиколлинеарности

Отметим, что в ряде случаев мультиколлинеарность не является таким уж серьезным «злом», чтобы прилагать существенные усилия по ее выявлению и устранению. В основном, все зависит от целей исследования.

Если основная задача модели — прогноз будущих значений зависимой переменной, то при достаточно большом коэффициенте

детерминации R2 (0,9) наличие мультиколлинеарности обычно

не сказывается на прогнозных качествах модели (если в будущем между коррелированными переменными будут сохраняться те же отношения, что и ранее).

Если необходимо определить степень влияния каждой из объясняющих переменных на зависимую переменную, то мультиколлинеарность, приводящая к увеличению стандартных ошибок, скорее всего, исказит истинные зависимости между переменными. В этой ситуации мультиколлинеарность является серьезной проблемой.

Единого метода устранения мультиколлинеарности, годного в любом случае, не существует. Это связано с тем, что причины и последствия мультиколлинеарности неоднозначны и во многом зависят от результатов выборки.

124

Исключение переменной(ых) из модели

Простейшим методом устранения мультиколлинеарности является исключение из модели одной или ряда коррелированных переменных. При применении данного метода необходима определенная осмотрительность. В данной ситуации возможны ошибки спецификации, поэтому в прикладных эконометрических моделях желательно не исключать объясняющие переменные до тех пор, пока мультиколлинеарность не станет серьезной проблемой.

Получение дополнительных данных или новой выборки

Поскольку мультиколлинеарность напрямую зависит от выборки, то, возможно, при другой выборке мультиколлинеарности не будет либо она не будет столь серьезной. Иногда для уменьшения мультиколлинеарности достаточно увеличить объем выборки. Например, при использовании ежегодных данных можно перейти к поквартальным данным. Увеличение количества данных сокращает дисперсии коэффициентов регрессии и тем самым увеличивает их статистическую значимость. Однако получение новой выборки или расширение старой не всегда возможно или связано с серьезными издержками. Кроме того, такой подход может усилить автокорреляцию. Эти проблемы ограничивают возможность использования данного метода.

Изменение спецификации модели

В ряде случаев проблема мультиколлинеарности может быть решена путем изменения спецификации модели: либо изменяется форма модели, либо добавляются объясняющие переменные, не учтенные в первоначальной модели, но существенно влияющие на зависимую переменную. Если данный метод имеет основания, то его использование уменьшает сумму квадратов отклонений, тем самым сокращая стандартную ошибку регрессии. Это приводит к уменьшению стандартных ошибок коэффициентов.

Использование предварительной информации о некоторых параметрах

Иногда при построении модели множественной регрессии можно воспользоваться предварительной информацией, в частности известными значениями некоторых коэффициентов регрессии.

125

Вполне вероятно, что значения коэффициентов, рассчитанные для каких-либо предварительных (обычно более простых) моделей либо для аналогичной модели по ранее полученной выборке, могут быть использованы для разрабатываемой в данный момент модели.

Отбор наиболее существенных объясняющих переменных. Процедура последовательного присоединения элементов

Переход к меньшему числу объясняющих переменных может уменьшить дублирование информации, доставляемой сильно взаимозависимыми признаками. Именно с этим мы сталкиваемся в слу-

чае мультиколлинеарности объясняющих переменных.

 

 

Пусть R yX

=R y

,

x

, ...,

xm)

— множественный

 

коэффициент

 

 

(x1

 

2

 

 

 

 

 

 

 

 

 

 

 

 

 

 

корреляции между зависимой переменной Y и набором объясняю-

щих переменных

X 1,X 2, ...,X m . Он

определяется

как

обычный

парный коэффициент корреляции между Y и линейной функцией

ˆ

 

 

 

 

 

 

 

 

 

 

 

 

 

 

ˆ

 

ˆ

1

— мат-

регрессии Y =b0 +b1X 1+b2 X 2+...+bm X m . Пусть

 

=R

 

рица, обратная к матрице

ˆ

:

 

 

 

 

 

 

 

 

 

 

 

 

 

 

R

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

ˆ

 

 

ˆ

 

 

ˆ

ˆ

 

 

 

ˆ

 

 

 

 

 

yy

 

 

y1

y 2

y3 ...

 

 

ym

 

 

 

 

ˆ

 

 

ˆ

 

 

ˆ

ˆ

 

 

 

ˆ

 

 

 

 

 

 

1y

 

 

11

12

13 ...

 

 

1m

 

 

 

ˆ

 

ˆ

 

 

ˆ

 

 

ˆ

ˆ

 

 

 

ˆ

 

 

 

 

 

2 y

 

 

21

22

23 ...

 

 

2m

 

(6.5)

= ˆ

 

 

ˆ

 

 

ˆ

ˆ

 

 

 

ˆ

 

.

 

 

 

3 y

 

 

31

32

33 ...

 

 

3m

 

 

 

 

...

 

 

...

...

 

...

...

 

 

 

...

 

 

 

 

 

 

ˆ

 

 

ˆ

 

 

ˆ

ˆ

...

 

 

ˆ

 

 

 

 

 

 

 

 

 

m1 m2 m3

 

 

 

 

 

 

 

 

 

 

my

 

 

 

 

 

mm

 

 

Тогда квадрат коэффициента R yX =R y

,

x2

,...,

xm)

может быть

вычислен по формуле:

 

 

 

 

 

 

 

 

 

(x1

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

R2yX

=1

 

1

.

 

 

 

 

 

 

 

 

(6.6)

 

 

 

 

 

ˆ

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

yy

 

 

 

 

 

 

 

 

 

Подправленная на несмещенность оценка

 

R*y2X

коэффициента

детерминации R2yX

имеет вид:

 

 

 

 

 

 

 

 

 

 

 

 

 

126

n1

 

R*y2X 1(1R2yX )nm1 .

(6.7)

(Если по формуле (6.7) получают отрицательное число, то полагают R*y2X =0 ).

Нижняя доверительная граница для R2

 

x2

xm)

определяется

 

 

 

 

 

 

 

 

(x1

,

 

 

 

 

 

 

 

 

 

 

y

,...,

 

 

 

 

по формуле:

 

 

 

 

 

 

 

 

 

 

 

 

 

 

Rmin2 (m)=R*2

 

 

 

2m (nm1)

 

 

 

 

 

 

 

xm)

2

 

 

 

 

1R2

 

 

 

. (6.8)

 

 

 

 

 

 

 

 

(x1 x2

 

 

(

)

 

 

 

 

(x1 x2

 

xm)

y,

,...,

 

 

 

 

2

1)

 

y

,

 

,...,

 

 

 

 

 

 

n1 (n

 

 

 

 

 

 

На практике, при решении вопроса о том, какие объясняющие переменные следует включать в модель, часто используют процедуру последовательного присоединения элементов.

1-й шаг (k =1). Выбирается наиболее информативная объяс-

няющая переменная, которая

максимизирует

величину

R2

 

 

 

 

 

 

 

(x j)

 

 

 

 

 

y

 

 

(j =1, 2, ..., m). При этом R2yx j

совпадает с квадратом обычного

парного коэффициента корреляции r2

. Пусть

max R2yx

 

=R2yx

 

,

 

y x j

1jm

j

 

p

 

тогда наиболее информативной будет переменная xp. Затем рассчи-

тывают подправленный на несмещенность коэффициент R*2 ( )

yx p

 

 

 

2

( )

(при m = 1) и его нижнюю доверительную границу Rmin

1 .

2-й шаг (k =2). Среди всевозможных пар объясняющих пере-

менных (x p ,x j ), j =1, ..., m, j p

выбирается та, которая максими-

зирует величину R2y,

x j)

. Пусть

max R2y(x p,x j)=R2y(x p,xq) , тогда наи-

(xk

 

1jm

 

 

 

 

 

jp

 

 

более информативной

будет пара (x p ,xq). Затем

рассчитывают

подправленный на несмещенность коэффициент R*2

 

(при m = 2)

 

 

 

y

 

 

 

 

 

(x p,xq)

 

и его нижнюю доверительную границу R2min (2).

127

Процедуру продолжают до тех пор, когда на шаге (k +1) выполнится условие:

Rmin2 (k +1)<Rmin2 (k).

(6.9)

Тогда в модель включают наиболее информативные переменные, полученные на первых k шагах. Отметим, что в расчетах используют формулы (6.7) и (6.8), в которых вместо m берут соответствующее значение номера шага k.

На самом деле этот метод не гарантирует, что мы избавимся от мультиколлинеарности.

Используют и другиеметодыустранения мультиколлинеарности. Пример 6.1. Имеются следующие условные данные (табл. 6.1):

Таблица 6.1

Данные для метода последовательного включения

 

x1

x2

x3

y

 

 

1

1,5

0,7

12

 

 

2

2,5

1,2

20

 

 

3

1

1,4

15

 

 

4

5,5

1,9

41

 

 

5

3

2,5

33

 

 

6

3

3,1

35

 

 

7

2,8

3,5

38

 

 

8

0,5

4

28

 

 

9

4

3,8

47

 

 

10

2

5,3

40

 

 

 

 

 

 

 

Рассмотрим влияние на зависимую переменную каждой из объясняющих переменных в отдельности. Вычисляя парные коэффициенты корреляции, получим, что наибольшее значение имеет ко-

эффициент R2yx1 = r2y x1 = 0,602. Тогда:

R*y2x1 =1(10,602)98 =0,552 ,

Rmin2 (1)= 0,552 2

2×1×8

(10,602)= 0,445.

9×99

 

 

128

Рассмотрим влияние на зависимую переменную пар переменных (x1, x2) и (x1, x3). Сначала рассмотрим влияние пары перемен-

ных (x1, x2).

ˆ

 

1

r y1

r y2

 

 

1

0,7760

0,6672

 

 

 

 

1

r12

 

 

 

1

0,05517

 

,

R = r1y

= 0,7760

 

 

 

 

r21

1

 

 

0,6672

0,05517

1

 

 

 

r2 y

 

 

 

 

 

147,9

109,7 92,6

 

 

 

 

 

 

 

 

 

 

1

 

 

ˆ

 

 

 

 

 

 

 

 

 

 

2

 

 

 

 

 

 

 

 

=0,9932 .

= −109,7

82,31

 

68,6

,

R y

 

 

 

 

x2)

=1

 

 

 

 

 

 

 

,

147,6

 

 

 

 

 

68,6

 

59,0

 

 

(x1

 

 

 

 

 

 

92,6

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

Затем рассмотрим влияние пары переменных (x1, x3).

 

 

 

 

ˆ

1

r y1

r y3

 

1

 

0,776

0,7198

 

 

 

 

 

1

 

 

 

0,776

 

 

 

 

1

 

0,9834

 

 

 

 

 

R = r1y

r13 =

 

 

 

 

 

,

 

 

 

 

 

 

 

r31

1

 

 

 

 

 

0,9834

 

1

 

 

 

 

 

 

 

 

 

r3 y

 

0,7198

 

 

 

 

 

 

2,936

6,084

3,870

 

 

 

 

 

 

 

 

 

1

 

 

ˆ

 

 

 

 

 

 

 

 

 

 

 

2

 

 

 

 

 

 

 

 

 

=0,659 .

= −6,084

42,98

37,89

,

R y(x1,x3)=1

 

 

 

 

2,936

 

 

 

 

3,89

37,86

35,47

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

Таким образом, следует выбрать пару переменных (x1, x2).

 

 

 

 

 

 

R*y2(x1,x2)=1(10,9932)

 

9

=0,9913,

 

 

 

 

 

 

 

 

 

 

7

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

2

 

(

 

)

 

 

 

2×2 (1021) (

 

 

 

)

 

 

 

Rmin

 

2

 

=

0,99132

(101)

(1001)

 

 

10,9932

 

=

0,988889.

Рассмотрим влияние на зависимую переменную трех перемен-

ных (x1, x2, x3).

1

r y1

r y2

r y3

1

0,7760

0,6672

0,7198

 

 

1

r12

r13

 

1

0,05517

0,9834

 

r1y

0,7760

 

ˆ

 

 

 

= 0,6672 0,05517

 

0,02045 ,

R = r2 y

r21

1

r23

1

 

r31

r32

1

 

 

0,9834

0,02045

1

 

r3 y

 

0,7198

 

129

 

157,7

97,6

100,2

19,59

 

ˆ

 

97,09

59,27

24,02

 

97,6

 

= 100,2

59,27

64,92

15,19

,

 

 

24,02

15,19

39,03

 

 

19,59

 

 

 

R2y(x1,x2 ,x3)=1

1

=0,9937,

 

 

157,7

 

 

 

 

 

 

 

 

 

 

R*y2(x1,x2 ,x3)=0,9905, Rmin2 (3)=0,9879.

2

( )

2

(

2

)

 

 

2 ( )

Rmin

3

=0,9879<Rmin

 

 

=0,988889>Rmin 1 =0,445.

Таким образом, следуя рекомендациям метода последовательного присоединения переменных, в уравнение следует включить две объясняющие переменные. Следовательно, теоретическое уравнение примет вид:

Y = β0 1 X 12 X 2 .

Гребневой метод

Рассмотрим «гребневой метод» («ридж-регрессия») устранения мультиколлинеарности. Метод был предложен А. Э. Хоэрлом в

1962 г. и применяется, когда матрица (X T X ) близка к вырожден-

ной. К диагональным элементам матрицы (X T X ) добавляют неко-

торое небольшое число (от 0,1 до 0,4). При этом получают смещенные оценки параметров уравнения. Но стандартные ошибки таких оценок в случае мультиколлинеарности ниже ошибок даваемых обычным методом наименьших квадратов.

Пример 6.2. Исходные данные представлены в табл. 6.2. Коэффициент корреляции объясняющих переменных rx1x2 =0,999 , что

свидетельствует о сильной мультиколлинеарности.

Таблица 6.2

Данные для исследования мультиколлинеарности гребневым методом

x1

x2

y

1

1,4

7

2

3,1

12

130

Соседние файлы в предмете [НЕСОРТИРОВАННОЕ]