- •Модели с постоянной эластичностью. Производственная функция Кобба - Дугласа.
- •Модель с постоянными темпами роста (полулогарифмическая модель).
- •Полиномиальная регрессия.
- •29. Кривая Филлипса
- •Гетероскедастичность. Последствия гетероскедастичности для оценок параметров регрессии методом наименьших квадратов и проверки статистических гипотез.
- •31. Признаки гетероскедастичности и ее диагностирование.
- •32. Оценивание коэффициентов множественной линейной регрессии в условиях гетероскедастичности. Обобщенный метод наименьших квадратов.
- •Автокорреляция. Причины автокорреляции.
- •Влияние автокорреляции на свойства оценок мнк.
- •Тест серий. Статистика Дарбина – Уотсона.
- •36. Способы противодействия автокорреляции.
- •Стохастические объясняющие переменные. Последствия ошибок измерения.
- •Инструментальные переменные.
- •39. Лаговые переменные и экономические зависимости между разновременными значениями переменных.
- •40. Модели с распределенными лагами.
- •41. Модели автрегрессии как эквивалентное представление моделей с распределёнными лагами
- •45. Понятие об одновременных уравнениях. Структурная и приведённая форма модели.
- •46) Проблема идентификации. Неидентифицируемость и сверхидентифицированность.
- •47) Оценивание системы одновременных уравнений. Косвенный и двухшаговый мнк.
- •48)Системы эконометрических уравнений с лаговыми переменными.
- •49) Модель Кейнса.
36. Способы противодействия автокорреляции.
Возможно, вам удастся устранить автокорреляцию путем определения ответственного за нее фактора или факторов и соответствующего расширения уравнения регрессии. Когда такое возможно, это может оказаться наилучшим решением.
В других случаях процедура, которую следует принять, будет зависеть от характера зависимости между значениями случайного члена. В литературе наибольшее внимание уделяется так называемой авторегрессионной схеме первого порядка, так как она интуитивно правдоподобна, но для того, чтобы было целесообразным ее использование в более сложных моделях, оснований обычно не хватает. Вместе с тем если наблюдения проводятся ежеквартально или ежемесячно, могут оказаться более подходящими другие модели, но мы не будем их здесь рассматривать.
Если бы уравнение было правильной спецификацией для измерения величины случайного члена, то вы могли бы полностью устранить автокорреляцию, если бы знали величину ρ. Это будет продемонстрировано на примере уравнения регрессии, включающего только одну объясняющую переменную, однако при большем их числе действует тот же принцип. Предположим, что истинная модель задается выражением, так что наблюдения t и t — 1 формируются как
Теперь вычтем из первого уравнения второе, умноженное на ρ, и получим
:
Обозначим:
Тогда преобразованное уравнение
где , не содержит автокорреляцию, поскольку ut независимы.
Метод Кокрана—Оркатта представляет собой итеративный процесс, включающий следующие этапы.
Оценивается регрессия с исходными непреобразованными данными.
Вычисляются остатки.
Оценивается регрессионная зависимость et от еt-1, соответствующая формуле и коэффициент при et-1 представляет собой оценку ρ (поскольку D(et-1)≈D(et),в качестве альтернативной оценки ρ можно принять коэффициент автокорреляции первого порядка re-1,e)
С этой оценкой ρ к преобразованному уравнению применяется МНК, который позволяет получить пересмотренные оценки α и β.
Повторно вычисляются остатки, и процесс возвращается к этапу 3.
Метод Хилдрета—Лу, также широко применяемый в регрессионных пакетах, основан на тех же самых принципах, но использует другой алгоритм вычислений. Здесь преобразованная регрессия оценивается для каждого значения ρ из определенного диапазона с заданным шагом внутри его. (Например, исследователь может задать диапазон от ρ = —1,00 до ρ= 1,00 с шагом 0,01.) Значение, которое дает минимальную стандартную ошибку для преобразованного уравнения, принимается в качестве оценки ρ, а коэффициенты регрессии определяются при оценивании уравнения с использованием этого значения.
Стохастические объясняющие переменные. Последствия ошибок измерения.
Основные идеи экономики — взаимосвязь между экономическими переменными. Спрос на товар на рынке рассматривается как функция его вены. Затраты на изготовление какого-либо продукта — функция от объема производства. Потребительские расходы — функция дохода и т.п. Это примеры взаимосвязей между двумя переменными, одна из которых (спрос на товар, производственные затраты, потребительские расходы) является объясняемой переменной (результирующим показателем), а другие — объясняющими переменными (факторы-аргументами).
Как правило, в каждое такое соотношение приходится вводить несколько объясняющих переменных и остаточную случайную составляющую, отражающую влияние на результирующий показатель всех неучтенных факторов. Например, спрос на товар можно рассматривать как функцию его цены, потребительского дохода и цен на конкурирующие и дополняющие товары. Производственные затраты зависят от объема производства, его динамики, цен на основные производственные ресурсы. Потребительские расходы — функция дохода, ликвидных активов и предыдущего уровня потребления.
Участвующая в каждом из этих соотношений случайная составляющая, отражающая влияние на результирующий показатель всех неучтенных факторов, обусловливает стохастический характер зависимости: даже зафиксировав значения объясняющих переменных (например, цена на сам товар и на конкурирующие с ним или дополняющие товары, а также потребительский доход), мы не можем ожидать однозначно, каким будет спрос на данный товар. Иначе говоря, переходя в своих наблюдениях спроса от одного временного (или пространственного) промежутка к другому, мы увидим случайное варьирование спроса около некоторого определенного уровня даже при фиксировании всех объясняющих переменных.Допустим, переменная у зависит от переменной z, что задано следующим соотношением: где v — случайный член с нулевым средним и дисперсией σv2.
Предположим, что z невозможно измерить абсолютно точно, и мы будем использовать х для обозначения его измеренного значения. В i-м наблюдении xi равно истинному значению zi, плюс ошибка измерения wi: xi = zi + wi
Допустим, что w имеет нулевое среднее и дисперсию σ i2, что D (z) в 6oльших выборках стремится к конечному пределу σz2 и что z и v распределены независимо.
Тогда получим:
Это уравнение имеет две случайные составляющие — первоначальный случайный член v и ошибку измерения w (умноженную на —β). Вместе они образуют составную случайную переменную, которую мы назовем e: Соотношение можно теперь записать как
Имея значения переменных у (временно будем предполагать, что они измерены точно) и х, мы, несомненно, можем оценить регрессионную зависимость у от х.
Анализируя ошибку, можно заметить, что она, вероятно, поведет себя не так, как требуется. Переменная х зависит от w, от этой величины зависит также и e. Когда ошибка измерения в наблюдении оказывается положительной, происходят две вещи: х, имеет положительную составляющую wi, a ej имеет отрицательную составляющую —βwi.. Аналогично, если ошибка измерения отрицательна, она вносит отрицательный вклад в величину хi и положительный вклад в величину eг Следовательно, корреляция между х и e отрицательна. Величина cov (х, и) не равна нулю, а b является несостоятельной оценкой β.
Даже если бы у нас была очень большая выборка, оценка оказалась бы неточной. Она бы занижала β на величину .
Таким образом, оценки МНК будут смещенными и несосстоятельными.
В то же время при ощибках измерения зависимой переменной лишь возрастает дисперся регрессии, а оценки параметров остаются несмещенными и состоятельными.