- •ОГЛАВЛЕНИЕ
- •ПРЕДИСЛОВИЕ
- •МЕТОДИЧЕСКИЕ МАТЕРИАЛЫ
- •РАБОЧАЯ ПРОГРАММА ДИСЦИПЛИНЫ
- •РЕКОМЕНДАЦИИ ПО САМОСТОЯТЕЛЬНОЙ РАБОТЕ СТУДЕНТА
- •ТЕОРЕТИЧЕСКИЕ МАТЕРИАЛЫ
- •ГЛАВА 1. СТАТИСТИЧЕСКИЕ ПОНЯТИЯ И РАСПРЕДЕЛЕНИЯ
- •§ 1. Введение
- •§ 2. Суть регрессионного анализа
- •§ 3. Некоторые статистические определения
- •§ 4. Нормальное (гауссовское) распределение
- •§ 5. (хи-квадрат)-распределение
- •§ 6. Распределение Стьюдента (t-распределение)
- •§ 7. F-распределение (распределение дисперсионного отношения)
- •§ 8. Статистическая проверка гипотез
- •§ 9. Определение критических значений распределений Стьюдента и Фишера с использованием программы Microsoft Office Excel
- •Резюме
- •Вопросы для самопроверки
- •ГЛАВА 2. ПАРНАЯ ЛИНЕЙНАЯ РЕГРЕССИЯ. УСЛОВИЯ ГАУССА–МАРКОВА
- •§ 1. Основные понятия
- •§ 2. Метод наименьших квадратов
- •§ 3. Предпосылки метода наименьших квадратов
- •§ 4. Анализ точности определения оценок коэффициентов регрессии
- •§ 5. Проверка статистической значимости коэффициентов парной линейной регрессии
- •§ 6. Интервальные оценки коэффициентов линейного уравнения регрессии
- •§ 7. Доверительные интервалы для зависимой переменной
- •§ 8. Проверка общего качества уравнения регрессии. Коэффициент детерминации
- •Резюме
- •Вопросы для самопроверки
- •ГЛАВА 3. МНОЖЕСТВЕННАЯ ЛИНЕЙНАЯ РЕГРЕССИЯ
- •§ 1. Определение параметров уравнения регрессии
- •§ 2. Расчет коэффициентов множественной линейной регрессии
- •§ 3. Дисперсии и стандартные ошибки коэффициентов
- •§ 4. Проверка статистической значимости коэффициентов уравнения регрессии
- •§ 5. Интервальные оценки коэффициентов теоретического уравнения регрессии
- •§ 6. Проверка общего качества уравнения регрессии
- •§ 7. Проверка равенства двух коэффициентов детерминации
- •§ 8. Проверка гипотезы о совпадении уравнений регрессии для двух выборок
- •§ 10. Частные уравнения регрессии
- •Резюме
- •Вопросы для самопроверки
- •ГЛАВА 4. АВТОКОРРЕЛЯЦИЯ СЛУЧАЙНЫХ ВОЗМУЩЕНИЙ
- •§ 1. Суть и причины автокорреляции
- •§ 2. Последствия автокорреляции
- •§ 3. Обнаружение автокорреляции. Критерий Дарбина–Уотсона
- •§ 4. Методы устранения автокорреляции
- •Резюме
- •Вопросы для самопроверки
- •ГЛАВА 5. ГЕТЕРОСКЕДАСТИЧНОСТЬ СЛУЧАЙНЫХ ВОЗМУЩЕНИЙ
- •§ 1. Общие понятия
- •§ 2. Последствия гетероскедастичности
- •§ 3. Обнаружение гетероскедастичности
- •§ 4. Методы смягчения проблемы гетероскедастичности
- •Резюме
- •Вопросы для самопроверки
- •ГЛАВА 6. МУЛЬТИКОЛЛИНЕАРНОСТЬ
- •§ 1. Общие понятия и последствия мультиколлнеарности
- •§ 2. Определение мультиколлинеарности
- •§ 3. Методы устранения мультиколлинеарности
- •Резюме
- •Вопросы для самопроверки
- •ГЛАВА 7. ФИКТИВНЫЕ ПЕРЕМЕННЫЕ В РЕГРЕССИОННЫХ МОДЕЛЯХ
- •§ 1. Модель с одной фиктивной (бинарной) переменной
- •§ 3. Сравнение двух регрессий
- •Резюме
- •Вопросы для самопроверки
- •ГЛАВА 8. НЕЛИНЕЙНАЯ РЕГРЕССИЯ
- •§ 1. Общие понятия
- •§ 2. Степенные модели (логарифмические)
- •§ 3. Обратная модель (гиперболическая)
- •§ 4. Полиномиальная модель
- •§ 5. Показательная модель (лог-линейная)
- •§ 6. Выбор формы модели
- •Резюме
- •Вопросы для самопроверки
- •ГЛАВА 9. ВРЕМЕННЫЕ РЯДЫ
- •§ 1. Общие понятия
- •§ 2. Моделирование тренда временного ряда
- •§ 4. Стационарные ряды
- •§ 5. Процесс авторегрессии AR(p)
- •§ 6. Процессы скользящего среднего MA(q)
- •§ 7. Комбинированные процессы авторегрессии-скользящего среднего ARMA(p, q)
- •§ 8. Модели ARMA, учитывающие наличие сезонности
- •§ 9. Нестационарные временные ряды. Процессы авторегрессии и проинтегрированного скользящего среднего ARIMA(p, k, q)
- •§ 10. Регрессионные модели с распределенными лагами
- •§ 11. Полиномиально распределенные лаги Ш. Алмон
- •Резюме
- •Вопросы для самопроверки
- •ГЛАВА 10. СИСТЕМЫ ОДНОВРЕМЕННЫХ УРАВНЕНИЙ
- •§ 1. Общие понятия
- •§ 2. Идентификация структурной формы модели
- •§ 3. Косвенный метод наименьших квадратов
- •§ 4. Двухшаговый метод наименьших квадратов
- •§ 5. Трехшаговый метод наименьших квадратов
- •Резюме
- •Вопросы для самопроверки
- •ЗАКЛЮЧЕНИЕ
- •ЗАДАНИЯ ДЛЯ КОНТРОЛЯ
- •Тесты для самоконтроля
- •Ключи к тестам для самоконтроля
- •Контрольная работа
- •Вопросы к зачету (экзамену)
- •ГЛОССАРИЙ
- •СПИСОК ЛИТЕРАТУРЫ
При гетероскедастичности последствия применения МНК будут следующими:
1.Оценки коэффициентов по-прежнему останутся несмещенными и линейными.
2.Оценки не будут эффективными (не будут иметь наименьшую дисперсию по сравнению с другими оценками данного параметра). Увеличение дисперсии оценок снижает вероятность получения максимально точных оценок.
3.Дисперсии оценок будут рассчитываться со смещением.
4.Вследствие вышесказанного все выводы, получаемые на основе соответствующих t- и F-статистик, а также интервальные оценки будут ненадежными. Следовательно, статистические выводы, получаемые при стандартных проверках качества оценок, могут быть ошибочными и приводить к неверным заключениям по построенной модели. Вполне вероятно, что стандартные ошибки коэффициентов будут занижены, следовательно, t-статистики будут завышены. Это может привести к признанию статистически значимыми коэффициентов, таковыми на самом деле не являющихся.
§3. Обнаружение гетероскедастичности
Вряде случаев, зная характер данных, появление проблемы гетероскедастичности можно предвидеть и попытаться устранить этот недостаток еще на этапе спецификации. Однако значительно чаще проблему приходится решать после построения уравнения регрессии.
Для определения гетероскедастичности разработано довольно большое число тестов и критериев для них.
Тест ранговой корреляции Спирмена
При использовании данного теста предполагается, что дисперсия отклонения будет либо увеличиваться, либо уменьшаться с увеличением значений X. Поэтому для регрессии, построенной по МНК, абсолютные величины отклонений ei и значения xi объясняющей переменной X будут коррелированы. Значения xi и ei ранжируются (упорядочиваются по величинам). Затем определяется коэффициент ранговой корреляции:
109
n
|
|
|
|
|
6 ∑d i2 |
|
|
|
|
|
|
|
|
|
|
r x , |
|
e |
|
=1− |
i=1 |
|
|
|
, |
|
|
|
|
(5.3) |
|
|
|
n(n2 −1) |
|||||||||||||
|
|
|
|
|
|
|
|
|
|
|
|
||||
где di — разность между рангами xi и |
|
ei |
|
, i =1, ..., n ; 6 — число |
|||||||||||
|
|
||||||||||||||
шесть (иногда думают, что это стандартное оклонение). |
|
|
|||||||||||||
Доказано, что если коэффициент корреляции ρx, |
|
e |
|
для гене- |
|||||||||||
|
|
ральной совокупности равен нулю, то статистика:
t = |
r x , |
|
e |
|
n−2 |
, |
(5.4) |
||||
|
|
||||||||||
|
|
||||||||||
|
|
|
|
|
|||||||
|
1−r2x, |
|
e |
|
|
|
|
||||
|
|
|
имеетраспределениеСтьюдентасчисломстепенейсвободы ν=n−2 . Следовательно, если наблюдаемое значение t-статистики, вычисленное по формуле (5.4), превышает tкр =t α2 , n−2 (определяемое
по таблице критических точек распределения Стьюдента), то необходимо отклонить гипотезу о равенстве нулю коэффициента корреляции ρx, e , следовательно, и об отсутствии гетероскедастичности.
В противном случае гипотеза об отсутствии гетероскедастичности принимается.
Если в модели регрессии больше чем одна объясняющая переменная, то проверка гипотезы может осуществляться с помощью t-статистики для каждой из них отдельно.
Тест Парка
Предполагается, что дисперсия σi2 является функцией i-го зна-
чения объясняющей переменной. Р. Парк предложил следующую функциональную зависимость:
σi2 =σ2 xiβeνi . |
(5.5) |
Прологарифмировав, получим: |
|
ln σi2 =ln σ2 +βln xi +νi . |
|
Так как дисперсии σi2 обычно неизвестны, |
то их заменяют |
оценками квадратов отклонений ei2 . |
|
110
Критерий Парка включает следующие этапы:
1.Строится уравнение регрессии: ˆyi =b0 +b1xi +ei .
2.Для каждого наблюдения определяются lnei2 =ln(yi −ˆyi)2 .
3.Оцениваются коэффициенты регрессии:
lnei2 =α+βln xi +νi . |
(5.6) |
В случае множественной регрессии зависимость (5.6) строится
для каждой объясняющей переменной. |
|||
4. Проверяется статистическая |
значимость коэффициента b |
||
(оценки β ) на основе t-статистики |
t = |
b |
. Если коэффициент |
|
|||
|
|
S b |
b ( β) статистически значим, то это означает наличие связи между lnei2 и ln xi , т. е. гетероскедастичности в статистических данных.
Отметим, что использование в критерии Парка конкретной функциональной зависимости (5.5) может привести к необоснованным выводам (например, коэффициент β статистически незначим,
а гетероскедастичность имеет место). Возможна еще одна проблема. Для случайного отклонения νi в свою очередь может иметь
место гетероскедастичность. Поэтому критерий Парка дополняется другими тестами.
Тест Глейзера
Тест Глейзера по своей сути аналогичен тесту Парка и дополняет его анализом других (возможно, более подходящих) зависимостей между дисперсиями отклонений σi и значениями перемен-
ной xi. По данному методу оценивается регрессионная зависимость модулей отклонений ei (тесно связанных с ( σi2 )) от xi. При этом
рассматриваемая зависимость моделируется следующим уравнением регрессии:
ei |
=α+βxik +νi . |
(5.7) |
Изменяя значения k, можно построить различные регрессии. Обычно k =...,−1;−0,5; 0,5; 1, ... Статистическая значимость коэф-
111
фициента β в каждом конкретном случае фактически означает наличие гетероскедастичности. Если для нескольких регрессий (5.7) коэффициент β оказывается статистически значимым, то при оп-
ределении характера зависимости обычно ориентируются на лучшую из них.
Отметим, что так же, как и в тесте Парка, в тесте Глейзера для отклонений νi может нарушаться условие гомоскедастичности.
Однако во многих случаях предложенные модели являются достаточно хорошими для определения гетероскедастичности.
Тест Голдфелда–Квандта
В данном случае также предполагается, что стандартное отклонение σi =σ(εi) пропорционально значению xi, т. е. σi2 =σ2 xi2, i =1, 2, ..., n . Предполагается, что εi имеет нормальное распределе-
ние и отсутствует автокорреляция остатков. Тест Голдфелда– Квандта состоит в следующем:
1.Все n наблюдений упорядочиваются по величине X.
2.Вся упорядоченная выборка после этого разбивается на три подвыборки размерностей k, n−2k, k соответственно.
3.Оцениваются отдельные регрессии для первой подвыборки (k первых наблюдений) и для третьей подвыборки (k последних наблюдений). Если предположение о пропорциональности диспер-
сий отклонений значениям X верно, то дисперсия регрессии по
k
первой подвыборке (сумма квадратов отклонений S1 =∑ei2 ) будет
i=1
существенно меньше дисперсии регрессии по третьей подвыборке
n
(суммы квадратов отклонений S 3 = ∑ ei2 ).
i=n−k+1
4. Для сравнения соответствующих дисперсий строится следующая F-статистика:
|
S 3 |
( |
) |
|
S 3 |
|
F = |
|
k −m−1 |
= |
. |
||
S1 |
(k −m−1) |
|
||||
|
|
S1 |
112