Добавил:
Upload Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:
Бардасов - Эконометрика.pdf
Скачиваний:
358
Добавлен:
06.03.2016
Размер:
2.47 Mб
Скачать

5.Сохраняется ли состоятельность оценок параметров линейной модели при гетероскедастичности случайных возмущений?

6.Как преобразуются переменные в уравнении парной линейной регрессии, если дисперсия остатков пропорциональна объясняющей переменной?

7.Как преобразуются переменные в уравнении парной линейной регрессии, если дисперсия остатков пропорциональна квадрату объясняющей переменной?

8.Расскажите порядок выполнения теста Голдфелда–Квандта.

9.Какая статистика применяется для сравнения дисперсий в тесте Голдфелда–Квандта?

10.Когда применяется обобщенный метод наименьших квадра-

тов?

11.Как в случае гетероскедастичности преобразуются переменные в модели множественной линейной регрессии?

12.Почему при использовании коэффициента корреляции рангов для исследования гетероскедастичности остатки берутся по абсолютной величине (или возводятся во вторую степень)?

ГЛАВА 6. МУЛЬТИКОЛЛИНЕАРНОСТЬ

Цель: изучение нарушения одной из предпосылок условий Га- усса–Маркова в случае множественной линейной регрессии, а именно: отсутствие заметной линейной взаимосвязи между объясняющими переменными.

Методические указания

Внимание следует обратить на факты, свидетельствующие о наличии мультиколлинеарности объясняющих переменных, ее последствия и методы смягчения мультиколлинеарности. Обратите внимание, что рассматриваемые методы не гарантируют устранение мультиколлинеарности. Перед изучением главы следует повторить определение коэффициента корреляции, вычисление обратной матрицы и алгебраических дополнений. Особое внимание следует обратить на невозможность осмысленной трактовки коэффициентов при объясняющих переменных в случае достаточно сильной мультиколлинеарности. Необходимо научиться рассчитывать с по-

118

мощью программы Microsoft Office Excel частные коэффициенты корреляции. Последние также понадобятся при изучении свойств стационарных временных рядов.

§ 1. Общие понятия и последствия мультиколлнеарности

Серьезной проблемой при построении моделей множественной линейной регрессии по МНК является мультиколлинеарность — линейная взаимосвязь двух или нескольких объясняющих переменных. Если объясняющие переменные связаны строгой функциональной зависимостью, то говорят о совершенной мультиколлинеарности. В случае совершенной мультиколлинеарности

матрица X T X оказывается вырожденной, т. е. ее определитель равен нулю, а значит, не существует обратная матрица (X T X )1 , ко-

торая участвует в основных соотношениях метода наименьших квадратов.

Совершенная мультиколлинеарность является скорее теоретическим примером. Реальна же ситуация, когда между объясняющими переменными существует довольно сильная корреляционная зависимость, а не строгая функциональная. Такая зависимость на-

зывается несовершенной мультиколлинеарностью. Мультиколли-

неарность затрудняет разделение влияния объясняющих факторов на поведение зависимой переменной и делает оценки коэффициентов регрессии ненадежными.

Нестрогая линейная зависимость между объясняющими переменными необязательно дает неудовлетворительные оценки. Если число наблюдений и выборочные дисперсии объясняющих переменных велики, а дисперсия случайного члена мала, то в итоге можно получить вполне хорошие оценки. Оценка любой регрессии будет страдать от мультиколлинеарности в определенной степени, если только все независимые переменные не окажутся абсолютно некоррелированными. Рассмотрение данной проблемы начинается только тогда, когда это серьезно влияет на результаты оценки регрессии. Эта проблема является обычной для регрессий временных рядов, когда данные состоят из ряда наблюдений в течение какого-

119

то периода времени. Если две или более объясняющие переменные имеют ярко выраженный временной тренд, то они будут тесно коррелированны, и это может привести к мультиколлинеарности.

Обычно выделяются следующие последствия мультиколлинеарности:

1.Падает точность оценивания. Оно становится очень трудным, так как невозможно распутать клубок взаимных влияний изменений различных объясняющих. Это падение точности проявляется в трех аспектах. Дисперсии (стандартные ошибки) некоторых конкретных оценок параметров уравнения становятся очень большими, оказываются сильно коррелированными друг с другом, что затрудняет нахождение истинных значений определяемых величин и расширяет интервальные оценки, ухудшая их точность.

2.Исследователи время от времени сталкиваются с некорректностью введения в анализ тех или иных переменных, поскольку коэффициенты при них оказываются незначимыми (уменьшаются t-статистики коэффициентов). Однако истинная причина может заключаться совсем не в том, что эти переменные не влияют на зависимую переменную, а в том, что множество выборочных данных не позволяет это отразить.

3.Оценки коэффициентов по МНК и их стандартные ошибки становятся очень чувствительными к изменениям данных, т. е. они становятся неустойчивыми. Добавление совсем небольшого количества наблюдений может иногда привести к очень сильным сдвигам в значениях некоторых коэффициентов.

4.Затрудняется определение вклада каждой из объясняющих переменных в объясняемую уравнением регрессии дисперсию зависимой переменной.

5.Возможно получение неверного знака у коэффициента регрессии.

Напомним, что коэффициент bj при переменной Xj в уравнении линейной регрессии:

ˆ

Y =b0 +b1X 1+b2 X 2 +...+bm X m

показывает, на сколько единиц изменится зависимая переменная Y, если объясняющая переменная Xj вырастет на одну единицу при

120

фиксированных значениях остальных объясняющих переменных. Однако в случае мультиколлинеарности этот смысл коэффициентов регрессии утрачивается.

§ 2. Определение мультиколлинеарности

Точных количественных критериев для определения наличия (отсутствия) мультиколлинеарности не существует. Тем не менее, существуют некоторые рекомендации по выявлению мультиколлинеарности.

1. В первую очередь анализируют матрицу парных коэффициентов корреляции:

 

1

r y1

r y2

r y3

...

r ym

 

 

 

 

1

r12

r13

...

 

 

 

 

r1y

r1m

 

ˆ

r2 y

r21

1

r23

...

r2m

 

(6.1)

R =

r31

r32

1

...

 

,

 

r3 y

r3m

 

 

... ... ...

...

...

...

 

 

 

 

rm1

rm2

rm3

...

1

 

 

 

rmy

 

 

точнее ту ее часть, которая относится к объясняющим переменным:

1

r12

r13

...

r1m

 

 

 

1

r23

...

 

 

 

r21

r2m

 

R = r31

r32

1

...

r3m

.

(6.2)

 

 

...

...

...

 

 

... ...

 

 

 

rm2

rm3

...

1

 

 

rm1

 

 

Здесь rij — парный коэффициент корреляции между переменными Xi, Xj; ryj — парный коэффициент корреляции между Y и Xj.

Формулы для расчета парных коэффициентов корреляции могут быть записаны в следующем виде:

121

 

 

 

 

 

 

 

 

 

n

 

 

 

 

 

n

 

n

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

nxkj yk −∑ xkj ×∑ yk

 

 

 

 

r jy =r yj =r x j y

=

 

 

 

 

 

 

k=1

 

 

 

 

 

k=1

 

k=1

 

 

 

 

,

 

 

 

 

 

n

 

 

 

2

 

 

 

 

 

n

2

 

 

 

 

 

n

 

2

 

 

 

 

 

n

 

2

 

 

 

 

 

 

n

 

−∑

xkj

 

× ny

k

 

−∑ y

 

 

 

 

 

 

 

xkj

k=1

 

 

k=1

 

k

 

 

 

 

k=1

 

 

 

 

 

 

 

k=1

 

 

 

 

 

 

 

 

 

 

n

 

 

 

 

 

n

 

n

 

 

 

 

 

 

 

 

 

 

 

 

 

 

nxki xkj −∑ xki ×∑ xkj

 

 

 

 

rij =r ji =r x j xi

=

 

 

 

 

 

 

 

k=1

 

 

 

 

 

k=1

 

k=1

 

 

 

 

,

 

 

 

 

 

 

 

n

 

 

 

2

 

 

 

 

 

n

2

 

 

 

 

 

n

 

2

 

 

 

 

n

2

 

 

 

 

 

 

 

n

 

−∑

xki

 

 

× ny

 

−∑ y

 

 

 

 

 

 

k=1

xki

 

k=1

 

 

k=1

kj

 

kj

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

k=1

 

k =1, ..., n — номер наблюдения.

Считается, что наличие коэффициентов rij, превышающих по абсолютной величине 0,75-0,8, свидетельствует о наличии мультиколлинеарности.

2.Если определитель матрицы X T X близок к нулю (например, одного порядка с накапливающимися ошибками вычислений), то это свидетельствует о наличии мультиколлинеарности.

3.Коэффициент детерминации R2 достаточно высок, но некоторые из коэффициентов регрессии статистически незначимы, т. е. имеют низкие t-статистики.

4.Высокие частные коэффициенты корреляции свидетельствуют о наличии мультиколлинеарности. При изучении многомерных связей необходимо измерять действительную силу линейной связи между двумя переменными, очищенную от влияния на рассматриваемую пару переменных других факторов. Частные коэффициенты корреляции определяют силу линейной зависимости между двумя переменными без учета влияния на них других переменных.

Выборочный частный коэффициент корреляции между перемен-

ными Xi

и X j (1i < j m), очищенный от влияния остальных

(m2)

объясняющих переменных, символически обозначается

rij12....(i1)(i+1)...(j1)(j+1)...m . Приведем формулу расчета данного коэффициента.

Пусть — матрица, обратная к матрице R:

122

11

12

13 ...

1m

 

21 22

23 ...

2m

 

=R1 = 31

32

33 ...

3m

.

(6.3)

 

 

 

 

...

 

 

... ... ... ...

 

 

 

m2

m3 ...

 

 

 

m1

mm

 

Тогда:

 

 

 

 

 

 

 

rij12....(i1)(i+1)...(j1)(j+1)...m =−

 

ij

 

.

(6.4)

 

 

 

 

 

 

 

ii jj

 

При проверке статистически значимого отличия от нуля выборочного частного коэффициента корреляции и при построении для него доверительных интервалов следует пользоваться рекомендациями для парного коэффициента корреляции, но во всех формулах объем выборки полагать равным (n - k), где k — остальные объясняющие переменные, т. е. переменные, влияние которых исключается при расчете частных коэффициентов корреляции.

5. Более внимательное изучение вопроса мультиколлинеарности производится следующим образом. Строятся уравнения регрессии каждой из объясняющих переменных Xj на оставшиеся объясняющие переменные X 1,X 2,...,X j1,X j+1,...,X m . Вычисляются коэффи-

циенты детерминации R2j и рассчитывается их статистическая зна-

чимость на основе F-статистики:

 

 

 

 

R2j

 

nm

F j =

 

×

 

.

1R2j

m1

Здесь n — число наблюдений, m — число объясняющих переменных в первоначальном уравнении регрессии. Статистика F имеет распределение Фишера с ν1 =m1 и ν2 =nm степенями

свободы. Если коэффициент R2j статистически незначим, то Xj не

является линейной комбинацией других переменных и ее можно оставить в уравнении регрессии. В противном случае есть основания считать, что Xj существенно зависит от других объясняющих переменных и имеет место мультиколлинеарность.

123

Соседние файлы в предмете [НЕСОРТИРОВАННОЕ]