- •Модуль 8. Анализ временных рядов
- •8.1. Временные ряды
- •Примеры временных рядов
- •Пример 8.1
- •Пример 8.2
- •8.1.1. Основные задачи анализа временных рядов
- •8.2. Автоковариационная и автокорреляционная функции
- •8.2.1. Автоковариационная функция
- •8.2.2. Автокорреляционная функция
- •8.3. Методы сглаживания временного ряда
- •8.3.1. Метод скользящего среднего
- •8.3.2. Метод экспоненциального взвешенного скользящего среднего (метод Брауна)
- •8.3.3.Случай «бесконечно» удаленного прошлого
- •8.4. Модели стационарных временных рядов и их идентификация
- •8.4.1. Модель авторегрессии 1-го порядка (ар(1))
- •8.4.2. Модель авторегрессии второго порядка - ар(2)
- •8.4.3. Модель авторегрессии ар(s)
- •8.4.4. Модель авторегрессии – скользящего среднего арсс(1,1)
- •8.5. Модели нестационарных временных рядов и их идентификация
- •8.5.1. Метод последовательных разностей
- •Пример 8.3
- •Конец примера
- •8.5.2. Преобразование Бокса-Дженкинса
- •Лабораторная работа №8.5
- •Выполнение
- •8. Вопросы
8.5.1. Метод последовательных разностей
Метод последовательных разностей (МПР) используется для подбора неслучайной составляющей временного ряда (в частности локального аппроксимирующего полинома степени p). МПР основан на следующем математическом факте: если анализируемый временной ряд x(t) содержит в качестве неслучайной составляющей алгебраический полином порядкаp, то переход к последовательным разностям, повторенный p+1 раз (порядка p+1), исключает неслучайную составляющую, включая 0, оставляя компоненты, выражающиеся только через случайную составляющую (t).
Процедура
Имеется ряд x(1), x(2), …, x(T). Введем
…
где - число сочетаний изk элементов по i.
Теперь мы можем обсудить способ подбора полинома порядка p, представляющего собой неслучайную составляющую F(t) в разложении анализируемого ряда x(t).
Пример 8.3
Подбор аппроксимирующего полинома порядка p=1
Пусть , тогда
Конец примера
8.5.2. Преобразование Бокса-Дженкинса
Автокорреляция остатков первого порядка, выявляемая с помощью статистики Дарбина-Уотсона, говорит о неверной спецификации уравнения либо о наличии неучтенных факторов. Естественно, для её устранения нужно попытаться выбрать более адекватную формулу зависимости, отыскать и включить важные неучтенные факторы или уточнить период оценивания регрессии. В некоторых случаях, однако, это не даст результата, а отклонения еt просто связаны авторегрессионной зависимостью. Если это авторегрессия первого порядка, то её формула имеет вид ( - коэффициент авторегрессии, (||<1), и мы предполагаем, что остатки ut в этой формуле обладают нужными свойствами, в частности - взаимно независимы. Оценив , введем новые переменные , (это преобразование называется авторегрессионным (AР), или преобразованием Бокса-Дженкинса). Пусть мы оцениваем первоначально формулу линейной регрессии . Тогда
Если величины ut действительно обладают нужными свойствами, то в линейной регрессионной зависимости автокорреляции остатков ut уже не будет, и статистика DW окажется близкой к двум. Коэффициент b этой формулы принимается для исходной формулы непосредственно, а коэффициент а
рассчитывается по формуле .
Оценки коэффициентов а и b нужно сравнить с первоначальными оценками, полученными для расчета отклонений еt. Если эти оценки совпадают, то процесс заканчивается; если нет - то при новых значениях а и b вновь рассчитываются отклонения еt до тех пор, пока оценки а и b на двух соседних итерациях не совпадут с требуемой точностью.
В случае, когда остатки иt также автокоррелированы, авторегрессионное преобразование может быть применено еще раз. Это означает использование авторегрессионного преобразования более высокого порядка, которое заключается в оценке коэффициентов авторегрессии соответствующего порядка для отклонении еt и использовании их для построения новых переменных. Такое преобразование вместо АР(1) называется АР(s) - если используется авторегрессия порядка s.
О целесообразности применения авторегрессионного преобразования говорит некоррелированность полученных отклонений иt. Однако даже в этом случае истинной причиной первоначальной автокорреляции остатков может быть нелинейность формулы или неучтенный фактор. Мы же, вместо поиска этой причины, ликвидируем ее бросающееся в глаза следствие. В этом - основной недостаток метода АР и содержательное ограничение для его применения.
Во многих случаях сочетание методов АР и СС позволяет решить проблему автокорреляции остатков даже при небольших s и q. Еще раз повторим, что адекватным такое решение проблемы является лишь в том случае, если автокорреляция остатков имеет собственные внутренние причины, а не вызвана наличием неучтенных (одного или нескольких) факторов.
Методы АР и СС могут использоваться в сочетании с переходом от объемных величин в модели к приростным, для которых статистическая взаимосвязь может быть более точной и явной. Модель, сочетающая все эти подходы, называется моделью АРПСС. В общем виде ее формулу можно записать так
где {t} и {t} - неизвестные параметры, и t - независимые, одинаково нормально распределенные случайные величины с нулевым средним. Величины у* представляют собой конечные разности порядка d величин у, а модель обозначается как АРПСС(p,d,q).
Преобразования АР, СС и модель АРПСС полезно использовать в тех случаях, когда уже ясен круг объясняющих переменных и общий вид оцениваемой формулы, но в то же время остается существенная автокорреляция остатков. В качестве примера укажем оценивание производственных функции, где объясняющими переменными служат используемые объемы или темпы прироста труда и капитала, а требуемой формулой является, например, производственная функция Кобба-Дугласа или СЕS.