- •ОГЛАВЛЕНИЕ
- •ПРЕДИСЛОВИЕ
- •МЕТОДИЧЕСКИЕ МАТЕРИАЛЫ
- •РАБОЧАЯ ПРОГРАММА ДИСЦИПЛИНЫ
- •РЕКОМЕНДАЦИИ ПО САМОСТОЯТЕЛЬНОЙ РАБОТЕ СТУДЕНТА
- •ТЕОРЕТИЧЕСКИЕ МАТЕРИАЛЫ
- •ГЛАВА 1. СТАТИСТИЧЕСКИЕ ПОНЯТИЯ И РАСПРЕДЕЛЕНИЯ
- •§ 1. Введение
- •§ 2. Суть регрессионного анализа
- •§ 3. Некоторые статистические определения
- •§ 4. Нормальное (гауссовское) распределение
- •§ 5. (хи-квадрат)-распределение
- •§ 6. Распределение Стьюдента (t-распределение)
- •§ 7. F-распределение (распределение дисперсионного отношения)
- •§ 8. Статистическая проверка гипотез
- •§ 9. Определение критических значений распределений Стьюдента и Фишера с использованием программы Microsoft Office Excel
- •Резюме
- •Вопросы для самопроверки
- •ГЛАВА 2. ПАРНАЯ ЛИНЕЙНАЯ РЕГРЕССИЯ. УСЛОВИЯ ГАУССА–МАРКОВА
- •§ 1. Основные понятия
- •§ 2. Метод наименьших квадратов
- •§ 3. Предпосылки метода наименьших квадратов
- •§ 4. Анализ точности определения оценок коэффициентов регрессии
- •§ 5. Проверка статистической значимости коэффициентов парной линейной регрессии
- •§ 6. Интервальные оценки коэффициентов линейного уравнения регрессии
- •§ 7. Доверительные интервалы для зависимой переменной
- •§ 8. Проверка общего качества уравнения регрессии. Коэффициент детерминации
- •Резюме
- •Вопросы для самопроверки
- •ГЛАВА 3. МНОЖЕСТВЕННАЯ ЛИНЕЙНАЯ РЕГРЕССИЯ
- •§ 1. Определение параметров уравнения регрессии
- •§ 2. Расчет коэффициентов множественной линейной регрессии
- •§ 3. Дисперсии и стандартные ошибки коэффициентов
- •§ 4. Проверка статистической значимости коэффициентов уравнения регрессии
- •§ 5. Интервальные оценки коэффициентов теоретического уравнения регрессии
- •§ 6. Проверка общего качества уравнения регрессии
- •§ 7. Проверка равенства двух коэффициентов детерминации
- •§ 8. Проверка гипотезы о совпадении уравнений регрессии для двух выборок
- •§ 10. Частные уравнения регрессии
- •Резюме
- •Вопросы для самопроверки
- •ГЛАВА 4. АВТОКОРРЕЛЯЦИЯ СЛУЧАЙНЫХ ВОЗМУЩЕНИЙ
- •§ 1. Суть и причины автокорреляции
- •§ 2. Последствия автокорреляции
- •§ 3. Обнаружение автокорреляции. Критерий Дарбина–Уотсона
- •§ 4. Методы устранения автокорреляции
- •Резюме
- •Вопросы для самопроверки
- •ГЛАВА 5. ГЕТЕРОСКЕДАСТИЧНОСТЬ СЛУЧАЙНЫХ ВОЗМУЩЕНИЙ
- •§ 1. Общие понятия
- •§ 2. Последствия гетероскедастичности
- •§ 3. Обнаружение гетероскедастичности
- •§ 4. Методы смягчения проблемы гетероскедастичности
- •Резюме
- •Вопросы для самопроверки
- •ГЛАВА 6. МУЛЬТИКОЛЛИНЕАРНОСТЬ
- •§ 1. Общие понятия и последствия мультиколлнеарности
- •§ 2. Определение мультиколлинеарности
- •§ 3. Методы устранения мультиколлинеарности
- •Резюме
- •Вопросы для самопроверки
- •ГЛАВА 7. ФИКТИВНЫЕ ПЕРЕМЕННЫЕ В РЕГРЕССИОННЫХ МОДЕЛЯХ
- •§ 1. Модель с одной фиктивной (бинарной) переменной
- •§ 3. Сравнение двух регрессий
- •Резюме
- •Вопросы для самопроверки
- •ГЛАВА 8. НЕЛИНЕЙНАЯ РЕГРЕССИЯ
- •§ 1. Общие понятия
- •§ 2. Степенные модели (логарифмические)
- •§ 3. Обратная модель (гиперболическая)
- •§ 4. Полиномиальная модель
- •§ 5. Показательная модель (лог-линейная)
- •§ 6. Выбор формы модели
- •Резюме
- •Вопросы для самопроверки
- •ГЛАВА 9. ВРЕМЕННЫЕ РЯДЫ
- •§ 1. Общие понятия
- •§ 2. Моделирование тренда временного ряда
- •§ 4. Стационарные ряды
- •§ 5. Процесс авторегрессии AR(p)
- •§ 6. Процессы скользящего среднего MA(q)
- •§ 7. Комбинированные процессы авторегрессии-скользящего среднего ARMA(p, q)
- •§ 8. Модели ARMA, учитывающие наличие сезонности
- •§ 9. Нестационарные временные ряды. Процессы авторегрессии и проинтегрированного скользящего среднего ARIMA(p, k, q)
- •§ 10. Регрессионные модели с распределенными лагами
- •§ 11. Полиномиально распределенные лаги Ш. Алмон
- •Резюме
- •Вопросы для самопроверки
- •ГЛАВА 10. СИСТЕМЫ ОДНОВРЕМЕННЫХ УРАВНЕНИЙ
- •§ 1. Общие понятия
- •§ 2. Идентификация структурной формы модели
- •§ 3. Косвенный метод наименьших квадратов
- •§ 4. Двухшаговый метод наименьших квадратов
- •§ 5. Трехшаговый метод наименьших квадратов
- •Резюме
- •Вопросы для самопроверки
- •ЗАКЛЮЧЕНИЕ
- •ЗАДАНИЯ ДЛЯ КОНТРОЛЯ
- •Тесты для самоконтроля
- •Ключи к тестам для самоконтроля
- •Контрольная работа
- •Вопросы к зачету (экзамену)
- •ГЛОССАРИЙ
- •СПИСОК ЛИТЕРАТУРЫ
О присутствии мультиколлинеарности сигнализируют некоторые внешние признаки модели:
•некоторые из оценок коэффициентов имеют неправильные с точки зрения экономической теории знаки или неоправданно большие значения;
•небольшое изменение исходных данных (добавление или изъятие небольшой порции наблюдений) приводит к существенному изменению оценок коэффициентов;
•большинство или даже все оценки коэффициентов регрессии оказываются статистически незначимо отличающимися от нуля (при проверке с помощью t-критерия), в то время как многие из
них в действительности имеют отличные от нуля значения, а модель в целом является значимой при проверке с помощью F-статистики.
§ 3. Методы устранения мультиколлинеарности
Отметим, что в ряде случаев мультиколлинеарность не является таким уж серьезным «злом», чтобы прилагать существенные усилия по ее выявлению и устранению. В основном, все зависит от целей исследования.
Если основная задача модели — прогноз будущих значений зависимой переменной, то при достаточно большом коэффициенте
детерминации R2 (≥0,9) наличие мультиколлинеарности обычно
не сказывается на прогнозных качествах модели (если в будущем между коррелированными переменными будут сохраняться те же отношения, что и ранее).
Если необходимо определить степень влияния каждой из объясняющих переменных на зависимую переменную, то мультиколлинеарность, приводящая к увеличению стандартных ошибок, скорее всего, исказит истинные зависимости между переменными. В этой ситуации мультиколлинеарность является серьезной проблемой.
Единого метода устранения мультиколлинеарности, годного в любом случае, не существует. Это связано с тем, что причины и последствия мультиколлинеарности неоднозначны и во многом зависят от результатов выборки.
124
Исключение переменной(ых) из модели
Простейшим методом устранения мультиколлинеарности является исключение из модели одной или ряда коррелированных переменных. При применении данного метода необходима определенная осмотрительность. В данной ситуации возможны ошибки спецификации, поэтому в прикладных эконометрических моделях желательно не исключать объясняющие переменные до тех пор, пока мультиколлинеарность не станет серьезной проблемой.
Получение дополнительных данных или новой выборки
Поскольку мультиколлинеарность напрямую зависит от выборки, то, возможно, при другой выборке мультиколлинеарности не будет либо она не будет столь серьезной. Иногда для уменьшения мультиколлинеарности достаточно увеличить объем выборки. Например, при использовании ежегодных данных можно перейти к поквартальным данным. Увеличение количества данных сокращает дисперсии коэффициентов регрессии и тем самым увеличивает их статистическую значимость. Однако получение новой выборки или расширение старой не всегда возможно или связано с серьезными издержками. Кроме того, такой подход может усилить автокорреляцию. Эти проблемы ограничивают возможность использования данного метода.
Изменение спецификации модели
В ряде случаев проблема мультиколлинеарности может быть решена путем изменения спецификации модели: либо изменяется форма модели, либо добавляются объясняющие переменные, не учтенные в первоначальной модели, но существенно влияющие на зависимую переменную. Если данный метод имеет основания, то его использование уменьшает сумму квадратов отклонений, тем самым сокращая стандартную ошибку регрессии. Это приводит к уменьшению стандартных ошибок коэффициентов.
Использование предварительной информации о некоторых параметрах
Иногда при построении модели множественной регрессии можно воспользоваться предварительной информацией, в частности известными значениями некоторых коэффициентов регрессии.
125
Вполне вероятно, что значения коэффициентов, рассчитанные для каких-либо предварительных (обычно более простых) моделей либо для аналогичной модели по ранее полученной выборке, могут быть использованы для разрабатываемой в данный момент модели.
Отбор наиболее существенных объясняющих переменных. Процедура последовательного присоединения элементов
Переход к меньшему числу объясняющих переменных может уменьшить дублирование информации, доставляемой сильно взаимозависимыми признаками. Именно с этим мы сталкиваемся в слу-
чае мультиколлинеарности объясняющих переменных. |
|
|
||||||||||||||||||
Пусть R y•X |
=R y• |
, |
x |
, ..., |
xm) |
— множественный |
|
коэффициент |
||||||||||||
|
|
(x1 |
|
2 |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
||
корреляции между зависимой переменной Y и набором объясняю- |
||||||||||||||||||||
щих переменных |
X 1,X 2, ...,X m . Он |
определяется |
как |
обычный |
||||||||||||||||
парный коэффициент корреляции между Y и линейной функцией |
||||||||||||||||||||
ˆ |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
ˆ |
|
ˆ |
−1 |
— мат- |
|
регрессии Y =b0 +b1X 1+b2 X 2+...+bm X m . Пусть |
|
=R |
|
|||||||||||||||||
рица, обратная к матрице |
ˆ |
: |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
||||
R |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
||||||
|
|
ˆ |
|
|
ˆ |
|
|
ˆ |
ˆ |
|
|
|
ˆ |
|
|
|
|
|||
|
yy |
|
|
y1 |
y 2 |
y3 ... |
|
|
ym |
|
|
|||||||||
|
|
ˆ |
|
|
ˆ |
|
|
ˆ |
ˆ |
|
|
|
ˆ |
|
|
|
|
|||
|
|
1y |
|
|
11 |
12 |
13 ... |
|
|
1m |
|
|
|
|||||||
ˆ |
|
ˆ |
|
|
ˆ |
|
|
ˆ |
ˆ |
|
|
|
ˆ |
|
|
|
|
|||
|
2 y |
|
|
21 |
22 |
23 ... |
|
|
2m |
|
(6.5) |
|||||||||
= ˆ |
|
|
ˆ |
|
|
ˆ |
ˆ |
|
|
|
ˆ |
|
. |
|
||||||
|
|
3 y |
|
|
31 |
32 |
33 ... |
|
|
3m |
|
|
|
|||||||
|
... |
|
|
... |
... |
|
... |
... |
|
|
|
... |
|
|
|
|
||||
|
|
ˆ |
|
|
ˆ |
|
|
ˆ |
ˆ |
... |
|
|
ˆ |
|
|
|
|
|||
|
|
|
|
|
m1 m2 m3 |
|
|
|
|
|
|
|
|
|
||||||
|
my |
|
|
|
|
|
mm |
|
|
|||||||||||
Тогда квадрат коэффициента R y•X =R y• |
, |
x2 |
,..., |
xm) |
может быть |
|||||||||||||||
вычислен по формуле: |
|
|
|
|
|
|
|
|
|
(x1 |
|
|
|
|
|
|||||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|||
|
|
|
|
|
R2y•X |
=1− |
|
1 |
. |
|
|
|
|
|
|
|
|
(6.6) |
||
|
|
|
|
|
ˆ |
|
|
|
|
|
|
|
|
|
||||||
|
|
|
|
|
|
|
|
|
yy |
|
|
|
|
|
|
|
|
|
||
Подправленная на несмещенность оценка |
|
R*y2•X |
коэффициента |
|||||||||||||||||
детерминации R2y•X |
имеет вид: |
|
|
|
|
|
|
|
|
|
|
|
|
|
126
n−1 |
|
R*y2•X ≈1−(1−R2y•X )n−m−1 . |
(6.7) |
(Если по формуле (6.7) получают отрицательное число, то полагают R*y2•X =0 ).
Нижняя доверительная граница для R2 |
|
x2 |
xm) |
определяется |
||||||||||
|
|
|
|
|
|
|
|
(x1 |
, |
|
|
|
||
|
|
|
|
|
|
|
y• |
,..., |
|
|
|
|
||
по формуле: |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
Rmin2 (m)=R*2 |
|
|
|
2m (n−m−1) |
|
|
|
|
|
|
||||
|
xm) |
−2 |
|
|
|
|
1−R2 |
|
|
|
. (6.8) |
|||
|
|
|
|
|
|
|
|
|||||||
(x1 x2 |
|
|
( |
) |
|
|
|
|
(x1 x2 |
|
xm) |
|||
y• , |
,..., |
|
|
|
|
2 |
−1) |
|
y• |
, |
|
,..., |
|
|
|
|
|
|
|
n−1 (n |
|
|
|
|
|
|
На практике, при решении вопроса о том, какие объясняющие переменные следует включать в модель, часто используют процедуру последовательного присоединения элементов.
1-й шаг (k =1). Выбирается наиболее информативная объяс-
няющая переменная, которая |
максимизирует |
величину |
R2 |
|
|
||
|
|
|
|
|
(x j) |
||
|
|
|
|
|
y• |
|
|
(j =1, 2, ..., m). При этом R2y•x j |
совпадает с квадратом обычного |
||||||
парного коэффициента корреляции r2 |
. Пусть |
max R2y•x |
|
=R2y•x |
|
, |
|
|
y x j |
1≤j≤m |
j |
|
p |
|
тогда наиболее информативной будет переменная xp. Затем рассчи-
тывают подправленный на несмещенность коэффициент R*2 ( )
y• x p
|
|
|
2 |
( ) |
|
(при m = 1) и его нижнюю доверительную границу Rmin |
1 . |
||||
2-й шаг (k =2). Среди всевозможных пар объясняющих пере- |
|||||
менных (x p ,x j ), j =1, ..., m, j ≠ p |
выбирается та, которая максими- |
||||
зирует величину R2y• , |
x j) |
. Пусть |
max R2y•(x p,x j)=R2y•(x p,xq) , тогда наи- |
||
(xk |
|
1≤j≤m |
|
|
|
|
|
|
j≠p |
|
|
более информативной |
будет пара (x p ,xq). Затем |
рассчитывают |
|||
подправленный на несмещенность коэффициент R*2 |
|
(при m = 2) |
|||
|
|
|
y• |
|
|
|
|
|
(x p,xq) |
|
и его нижнюю доверительную границу R2min (2).
127
Процедуру продолжают до тех пор, когда на шаге (k +1) выполнится условие:
Rmin2 (k +1)<Rmin2 (k). |
(6.9) |
Тогда в модель включают наиболее информативные переменные, полученные на первых k шагах. Отметим, что в расчетах используют формулы (6.7) и (6.8), в которых вместо m берут соответствующее значение номера шага k.
На самом деле этот метод не гарантирует, что мы избавимся от мультиколлинеарности.
Используют и другиеметодыустранения мультиколлинеарности. Пример 6.1. Имеются следующие условные данные (табл. 6.1):
Таблица 6.1
Данные для метода последовательного включения
|
x1 |
x2 |
x3 |
y |
|
|
1 |
1,5 |
0,7 |
12 |
|
|
2 |
2,5 |
1,2 |
20 |
|
|
3 |
1 |
1,4 |
15 |
|
|
4 |
5,5 |
1,9 |
41 |
|
|
5 |
3 |
2,5 |
33 |
|
|
6 |
3 |
3,1 |
35 |
|
|
7 |
2,8 |
3,5 |
38 |
|
|
8 |
0,5 |
4 |
28 |
|
|
9 |
4 |
3,8 |
47 |
|
|
10 |
2 |
5,3 |
40 |
|
|
|
|
|
|
|
Рассмотрим влияние на зависимую переменную каждой из объясняющих переменных в отдельности. Вычисляя парные коэффициенты корреляции, получим, что наибольшее значение имеет ко-
эффициент R2y•x1 = r2y x1 = 0,602. Тогда:
R*y2•x1 =1−(1−0,602)98 =0,552 ,
Rmin2 (1)= 0,552 −2 |
2×1×8 |
(1−0,602)= 0,445. |
|
9×99 |
|||
|
|
128
Рассмотрим влияние на зависимую переменную пар переменных (x1, x2) и (x1, x3). Сначала рассмотрим влияние пары перемен-
ных (x1, x2).
ˆ |
|
1 |
r y1 |
r y2 |
|
|
1 |
0,7760 |
0,6672 |
|
|
|
|
1 |
r12 |
|
|
|
1 |
0,05517 |
|
, |
|
R = r1y |
= 0,7760 |
|
|||||||||
|
|
|
r21 |
1 |
|
|
0,6672 |
0,05517 |
1 |
|
|
|
r2 y |
|
|
|
|
|
147,9 |
−109,7 −92,6 |
|
|
|
|
|
|
|
|
|
|
1 |
|
|
|||||||||||
ˆ |
|
|
|
|
|
|
|
|
|
|
2 |
|
|
|
|
|
|
|
|
=0,9932 . |
||||||
= −109,7 |
82,31 |
|
68,6 |
, |
R y• |
|
|
|
|
x2) |
=1− |
|
|
|
||||||||||||
|
|
|
|
, |
147,6 |
|||||||||||||||||||||
|
|
|
|
|
68,6 |
|
59,0 |
|
|
(x1 |
|
|
|
|
|
|||||||||||
|
−92,6 |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|||||||||
Затем рассмотрим влияние пары переменных (x1, x3). |
||||||||||||||||||||||||||
|
|
|
|
ˆ |
1 |
r y1 |
r y3 |
|
1 |
|
0,776 |
0,7198 |
||||||||||||||
|
|
|
|
|
1 |
|
|
|
0,776 |
|
|
|
|
1 |
|
0,9834 |
|
|||||||||
|
|
|
|
R = r1y |
r13 = |
|
|
|
|
|
, |
|||||||||||||||
|
|
|
|
|
|
|
r31 |
1 |
|
|
|
|
|
0,9834 |
|
1 |
|
|
|
|||||||
|
|
|
|
|
|
r3 y |
|
0,7198 |
|
|
|
|
||||||||||||||
|
|
2,936 |
−6,084 |
3,870 |
|
|
|
|
|
|
|
|
|
1 |
|
|
||||||||||
ˆ |
|
|
|
|
|
|
|
|
|
|
|
2 |
|
|
|
|
|
|
|
|
|
=0,659 . |
||||
= −6,084 |
42,98 |
−37,89 |
, |
R y•(x1,x3)=1− |
|
|
|
|
||||||||||||||||||
2,936 |
||||||||||||||||||||||||||
|
|
|
|
3,89 |
−37,86 |
35,47 |
|
|
|
|
|
|
|
|
|
|
||||||||||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|||||||||
Таким образом, следует выбрать пару переменных (x1, x2). |
||||||||||||||||||||||||||
|
|
|
|
|
|
R*y2•(x1,x2)=1−(1−0,9932) |
|
9 |
=0,9913, |
|
|
|
|
|||||||||||||
|
|
|
|
|
|
7 |
|
|
|
|
||||||||||||||||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|||||
2 |
|
( |
|
) |
|
|
|
2×2 (10−2−1) ( |
|
|
|
) |
|
|
|
|||||||||||
Rmin |
|
2 |
|
= |
0,9913−2 |
(10−1) |
(100−1) |
|
|
1−0,9932 |
|
= |
0,988889. |
Рассмотрим влияние на зависимую переменную трех перемен-
ных (x1, x2, x3).
1 |
r y1 |
r y2 |
r y3 |
1 |
0,7760 |
0,6672 |
0,7198 |
|
|
|
1 |
r12 |
r13 |
|
1 |
0,05517 |
0,9834 |
|
|
r1y |
0,7760 |
|
|||||||
ˆ |
|
|
|
= 0,6672 0,05517 |
|
−0,02045 , |
|||
R = r2 y |
r21 |
1 |
r23 |
1 |
|||||
|
r31 |
r32 |
1 |
|
|
0,9834 |
−0,02045 |
1 |
|
r3 y |
|
0,7198 |
|
129
|
157,7 |
−97,6 |
−100,2 |
−19,59 |
|
ˆ |
|
97,09 |
59,27 |
−24,02 |
|
−97,6 |
|
||||
= −100,2 |
59,27 |
64,92 |
15,19 |
, |
|
|
|
−24,02 |
15,19 |
39,03 |
|
|
−19,59 |
|
|
|
R2y•(x1,x2 ,x3)=1− |
1 |
=0,9937, |
||||
|
|
157,7 |
||||||
|
|
|
|
|
|
|
|
|
|
|
R*y2•(x1,x2 ,x3)=0,9905, Rmin2 (3)=0,9879. |
||||||
2 |
( ) |
2 |
( |
2 |
) |
|
|
2 ( ) |
Rmin |
3 |
=0,9879<Rmin |
|
|
=0,988889>Rmin 1 =0,445. |
Таким образом, следуя рекомендациям метода последовательного присоединения переменных, в уравнение следует включить две объясняющие переменные. Следовательно, теоретическое уравнение примет вид:
Y = β0 +β1 X 1+β2 X 2 +ε.
Гребневой метод
Рассмотрим «гребневой метод» («ридж-регрессия») устранения мультиколлинеарности. Метод был предложен А. Э. Хоэрлом в
1962 г. и применяется, когда матрица (X T X ) близка к вырожден-
ной. К диагональным элементам матрицы (X T X ) добавляют неко-
торое небольшое число (от 0,1 до 0,4). При этом получают смещенные оценки параметров уравнения. Но стандартные ошибки таких оценок в случае мультиколлинеарности ниже ошибок даваемых обычным методом наименьших квадратов.
Пример 6.2. Исходные данные представлены в табл. 6.2. Коэффициент корреляции объясняющих переменных rx1x2 =0,999 , что
свидетельствует о сильной мультиколлинеарности.
Таблица 6.2
Данные для исследования мультиколлинеарности гребневым методом
x1 |
x2 |
y |
1 |
1,4 |
7 |
2 |
3,1 |
12 |
130