Добавил:
Upload Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:
Эконометрика конспект.docx
Скачиваний:
228
Добавлен:
29.02.2016
Размер:
8.53 Mб
Скачать

Последствия автокорреляции:

1. Истинная автокорреляция не приводит к смещению оценок регрессии, но оценки перестают быть эффективными.

2. Автокорреляция (особенно положительная) часто приводит к уменьшению стандартных ошибок коэффициентов, что влечет за собой увеличение t-статистик.

3. Оценка дисперсии остатков Se2 является смещенной оценкой истинного значения σe2 , во многих случаях занижая его.

4. В силу вышесказанного выводы по оценке качества коэффициентов и модели в целом, возможно, будут неверными. Это приводит к ухудшению прогнозных качеств модели.

16. Критерий диагностики автокорреляции Дарбина-Уотсона

Наиболее известным критерием обнаружения автокорреляции первого порядка является критерий Дарбина-Уотсона. Статистика DWДарбина-Уотсона (или d-статистика) приводится во всех специальных прикладных компьютерных программах как важнейшая характеристика качества регрессионной модели. Суть критерия состоит в том, что на основе вычисленной статистики DWДарбина-Уотсона делается вывод о наличии автокорреляции.

Рассмотрим уравнение регрессии вида:

где k – число независимых переменных модели регрессии.

Для каждого момента времени t=1 : n значение определяется по формуле:

Изучая последовательность остатков как временной ряд в дисциплине «Эконометрика», можно построить график их зависимости от времени. В соответствии с предпосылками метода наименьших квадратов остатки должны быть случайными (а). Однако при моделировании временных рядов иногда встречается ситуация, когда остатки содержат тенденцию (б и в) или циклические колебания (г). Это говорит о том, что каждое следующее значение остатков зависит от предыдущих. В этом случае имеется автокорреляция остатков.

Методы определения автокорреляции остатков

Первый метод – это построение графика зависимостей остатков от времени и визуальное определение наличия автокорреляции остатков.

Второй метод – расчет критерия Дарбина-Уотсона.

Т.е. критерий Дарбина-Уотсона определяется как отношение суммы квадратов разностей последовательных значений остатков к сумме квадратов остатков. В задачах по эконометрике значение критерия Дарбина-Уотсона указывается наряду с коэффициентом корреляции, значениями критериев Фишера и Стьюдента.

17.Методы устранения автокорреляции. Процедуры оценивания Кохрейна-Оркатта и Хильдрета-Лу

В связи с тем, что наличие в модели регрессии автокорреляции между остатками модели может привести к негативным результатам всего процесса оценивания неизвестных коэффициентов модели, а именно к:

а) увеличению дисперсий оценок параметров модели;

б) смещению оценок, полученных по МНК;

в) снижению значимости оценок параметров,

автокорреляция остатков должна быть устранена.

Основной причиной наличия случайного члена в модели являются несовершенные знания о причинах и взаимосвязях, определяющих то или иное значение зависимой переменной. Поэтому свойства случайных отклонений, в том числе и автокорреляция, в первую очередь зависят от выбора формулы зависимости и состава объясняющих переменных.

Так как автокорреляция чаще всего вызывается неправильной спецификацией модели, то необходимо, прежде всего, скорректировать саму модель. Возможно, автокорреляция вызвана отсутствием в модели некоторой важной объясняющей переменной. Следует попытаться определить данный фактор и учесть его в уравнении регрессии. Также можно попробовать изменить формулу зависимости (например, линейную на гиперболическую и т. д.).

Однако если все разумные процедуры изменения спецификации модели исчерпаны, а автокорреляция имеет место, то можно предположить, что она обусловлена какими-то внутренними свойствами ряда εt. В этом случае можно воспользоваться авторегрессионным преобразованием. В линейной регрессионной модели либо в моделях, сводящихся к линейной, наиболее целесообразным и простым преобразованием является авторегрессионная схема первого порядка AR(1).

Для простоты изложения AR(1) рассмотрим модель парной линейной регрессии. Тогда наблюдениям t и (t - 1) соответствуют формулы:и.

Пусть случайные отклонения подвержены воздействию авторегрессии первого порядка:, где последовательность случайных компонентов– не коррелированна, акоэффициент ρ известен.

Вычтем из наблюдения t соотношение наблюдения (t - 1), умноженное на ρ:

Применим преобразование модели:

Тогда в новых переменных модель примет вид: в котором шоковая переменная уже не искажена автокорреляцией.

Данное преобразование (D) относится к классу декорреляции операторов [7]. Он приводит к потере первого наблюдения (если мы не обладаем предшествующим ему наблюдением). Число степеней свободы уменьшится на единицу, что при больших выборках не так существенно, но при малых может привести к потере эффективности. Эта проблема обычно преодолевается с помощью поправки Прайса-Винстена:

Отметим, что авторегрессионное преобразование может быть обобщено на произвольное число объясняющих переменных, т. е. использовано для уравнения множественной регрессии. Таким образом, авторегрессионное преобразование первого порядка AR(1) может быть обобщено на преобразования более высоких порядков AR(2), AR(3) и т. д.:

Можно показать, что в случае автокорреляции остатков ковариационная матрица вектора случайных отклонений имеет вид:

В обобщенном МНК параметры уравнения регрессии определяются по формуле Эйткена:

Однако на практике значение коэффициента ρ обычно неизвестно и его необходимо оценивать. Существует несколько методов оценивания ρ.

1. на основе статистики Дарбина-Уотсона. Т.к. она тесно связана с коэффициентом корреляции между соседними отклонениями через соотношение, то в кач-ве оценки коэффициента ρ может быть взят коэф r:Этот метод оценивания неплох при большом числе наблюдений, так как этом случае оценка r параметра ρ будет достаточно точной.

2. метод Кохрейна-Оркатта. включает следующие этапы:

1. Применяя МНК к исходному уравнению регрессии, получают первоначальные оценки параметров a0 и a1; вычисляют остатки

2. В качестве оценки параметра ρ используют его МНК-оценку в регрессии .

3. Применяя Обобщённый МНК к преобразованному уравнению, получают новые оценки параметров a0 и a1.

4. Строят новый вектор остатков и процесс возвращается к этапу 2.

Чередование этапов осуществляется до тех пор, пока не будет достигнута требуемая точность, т. е. пока разность между предыдущей и последующей оценками ρ не станет меньше любого наперед заданного числа.

Процедура КО реализована в большинстве эк компьютерных программах.

3. Процедура Хильдрата-Лу также применяема в регрессионных пакетах. Метод основан на тех же принципах, но использует другой алгоритм вычислений:

1. Преобразованное уравнение оценивают для каждого значения ρ из интервала (-1;1) с заданным шагом внутри его.

2. Выбирают значение ρ, для которого сумма квадратов остатков в преобразованном уравнении минимальна, а коэффициенты регрессии определяются при оценивании преобразованного уравнения с использованием этого значения.

3. В окрестности этого значения устраивается более мелкая сетка и процесс отбора наилучшего значения ρ осуществляется до тех пор, пока не будет достигнута требуемая точность.