- •Тема 1 Методы и модели регрессионного анализа 7
- •Тема 2. Системы эконометрических уравнений 50
- •Тема 3. Анализ временных рядов 60
- •Предисловие
- •Введение. Эконометрическая модель и проблемы эконометрического моделирования
- •Общие понятия
- •Экономическая модель
- •Эконометрическая модель
- •Элементы эконометрической модели и их свойства
- •Задачи эконометрики
- •Эконометрика и её место в ряду математических и экономических дисциплин
- •Тема 1 Методы и модели регрессионного анализа
- •1.1 Основные понятия регрессионного анализа
- •1.1.1 Спецификация модели
- •1.2 Парная регрессия и корреляция
- •1.2.1 Линейная модель парной регрессии и корреляции
- •Оценка тесноты связи
- •Оценка качества подбора уравнения
- •Проверка статистической значимости эконометрической модели
- •Оценка значимости параметров эконометрической модели
- •1.2.2 Нелинейные модели парной регрессии и корреляции Виды нелинейных уравнений регрессии
- •Линеаризация нелинейных моделей регрессии
- •Оценка тесноты связи нелинейной регрессии
- •Оценка качества нелинейных уравнений регрессии
- •1.3 Множественная регрессия и корреляция
- •Отбор факторов, включаемых в модель множественной регрессии
- •1.3.1 Линейное уравнение множественной регрессии
- •Оценка параметров линейных уравнений регрессии
- •1.3.2 Линейное уравнение множественной регрессии с стандартизированном масштабе
- •1.3.2 Частные уравнения регрессии
- •1.3.3 Свойства оценок параметров эконометрической модели, получаемых при помощи мнк
- •1.3.4 Предпосылки мнк, методы их проверки
- •Обобщенный метод наименьших квадратов (омнк)
- •1.3.5 Проверка существенности факторов и показатели качества регрессии
- •Оценка тесноты связи
- •Проверка статистической значимости эконометрической модели
- •Оценка значимости параметров эконометрической модели
- •1.3.6 Фиктивные переменные во множественной регрессии
- •1.4 Резюме по теме.
- •Вопросы для повторения
- •Тема 2. Системы эконометрических уравнений
- •2.1. Классификация систем эконометрических уравнений
- •2.2 Структурная и приведенная формы модели
- •2.3 Проблема идентификации систем одновременных уравнений
- •2.4. Методы оценки параметров структурной формы модели (систем одновременных уравнений): косвенный метод наименьших квадратов (кмнк) и двухшаговый метод наименьших квадратов (дмнк)
- •2.5. Модель спроса и предложения
- •2.5.1 Структурная и приведённая форма системы
- •2.6. Вопросы для повторения
- •2.7. Резюме по теме
- •Тема 3. Анализ временных рядов
- •3.1. Структура временного ряда
- •3.2. Автокорреляция уровней временного ряда
- •Проверка гипотезы о наличии тренда во временном ряде
- •3.2. Моделирование тенденции временного ряда
- •3.3. Моделирование сезонных колебаний
- •3.3.1 Аддитивная и мультипликативная модели временных рядов
- •3.4. Автокорреляция в остатках. Критерий Дарбина-Уотсона
- •3.5 Модели стационарных и нестационарных временных рядов и их идентификация
- •3.6 Эргодичность
- •3.7 Особые случаи
- •3.8 Нестационарные временные ряды
- •3.9 Метод разностей и интегрируемость
- •3.10 Адаптивные методы краткосрочного прогнозирования временных рядов
- •3.10.1 Понятие адаптивной модели
- •3.10.2 Экспоненциальное сглаживание
- •3.10.3 Модели линейного роста
- •3.10.4 Стохастический процесс Тейла и Вейджа
- •3.10.5 Сезонные модели
- •Аддитивная модель сезонных явлений
- •3.10.6 Модели авторегрессии — скользящего среднего (метод Бокса —Дженкинса)
- •3.10.7 Авторегрессионная модель.
- •3.10.8 Модель скользящего среднего.
- •3.11 Специфика изучения взаимосвязей по временным рядам. Исключение сезонных колебаний. Исключение тенденции.
- •3.11.1. Метод отклонений от тренда
- •3.11.2. Метод последовательных разностей
- •3.12 Резюме по теме.
- •3.13 Вопросы для повторения
Линеаризация нелинейных моделей регрессии
Парабола второй степени приводится к линейному виду с помощью замены:. В результате приходим к двухфакторному уравнению, оценка параметров которого при помощи МНК, приводит к системе следующих нормальных уравнений:
А после обратной замены переменных получим
(1.19)
Парабола второй степени обычно применяется в случаях, когда для определенного интервала значений фактора меняется характер связи рассматриваемых признаков: прямая связь меняется на обратную или обратная на прямую.
Равносторонняя гипербола приводится к линейному уравнению простой заменой:. Система линейных уравнений при применении МНК будет выглядеть следующим образом:
(1.20)
Аналогичным образом приводятся к линейному виду зависимости ,и другие.
Оценка тесноты связи нелинейной регрессии
Уравнение нелинейной регрессии, так же, как и в случае линейной зависимости, дополняется показателем тесноты связи. В данном случае это индекс корреляции:
. (1.21)
Величина данного показателя находится в пределах: . Чем ближе значение индекса корреляции к единице, тем теснее связь рассматриваемых признаков, тем более надежно уравнение регрессии.
Квадрат индекса корреляции носит название индекса детерминации и характеризует долю дисперсии результативного признака , объясняемую регрессией, в общей дисперсии результативного признака:
, (1.22)
т.е. имеет тот же смысл, что и в линейной регрессии;
.
Индекс детерминации можно сравнивать с коэффициентом детерминациидля обоснования возможности применения линейной функции. Чем больше кривизна линии регрессии, тем величинаменьше. А близость этих показателей указывает на то, что нет необходимости усложнять форму уравнения регрессии и можно использовать линейную функцию.
Оценка качества нелинейных уравнений регрессии
Индекс детерминации используется для проверки существенности в целом уравнения регрессии по -критерию Фишера:
, (1.23)
где – индекс детерминации,– число наблюдений,– число параметров при переменной.
Фактическое значение -критерия (1.23) сравнивается с табличным при уровне значимостии числе степеней свободы(для остаточной суммы квадратов) и(для факторной суммы квадратов).
О качестве нелинейного уравнения регрессии можно также судить и по средней ошибке аппроксимации, которая, так же как и в линейном случае, вычисляется по формуле (1.8).
1.3 Множественная регрессия и корреляция
Парная регрессия может дать хороший результат при моделировании, если влиянием других факторов, воздействующих на объект исследования, можно пренебречь. Если же этим влиянием пренебречь нельзя, то в этом случае следует попытаться выявить влияние других факторов, введя их в модель, т.е. построить уравнение множественной регрессии
,
где – зависимая переменная (результативный признак),– независимые, или объясняющие, переменные (признаки-факторы).
Отбор факторов, включаемых в модель множественной регрессии
Построение уравнения множественной регрессии начинается с решения вопроса о спецификации модели. Он включает в себя два круга вопросов: отбор факторов и выбор вида уравнения регрессии.
Включение в уравнение множественной регрессии того или иного набора факторов связано, прежде всего, с представлением исследователя о природе взаимосвязи моделируемого показателя с другими экономическими явлениями. Факторы, включаемые во множественную регрессию, должны отвечать следующим требованиям.
Они должны быть количественно измеримы. Если необходимо включить в модель качественный фактор, не имеющий количественного измерения, то ему нужно придать количественную определенность.
Факторы не должны быть интеркоррелированы и тем более находиться в точной функциональной связи.
Отбор факторов производится на основе качественного теоретико-экономического анализа. Однако теоретический анализ часто не позволяет однозначно ответить на вопрос о количественной взаимосвязи рассматриваемых признаков и целесообразности включения фактора в модель. Поэтому отбор факторов обычно осуществляется в две стадии: на первой подбираются факторы исходя из сущности проблемы; на второй – на основе матрицы показателей корреляции определяют статистики для параметров регрессии.
Коэффициенты интеркорреляции (т.е. корреляции между объясняющими переменными) позволяют исключать из модели дублирующие факторы. Считается, что две переменные явно коллинеарны, т.е. находятся между собой в линейной зависимости, если. Если факторы явно коллинеарны, то они дублируют друг друга и один из них рекомендуется исключить из регрессии. Предпочтение при этом отдается не фактору, более тесно связанному с результатом, а тому фактору, который при достаточно тесной связи с результатом имеет наименьшую тесноту связи с другими факторами. В этом требовании проявляется специфика множественной регрессии как метода исследования комплексного воздействия факторов в условиях их независимости друг от друга.
По величине парных коэффициентов корреляции обнаруживается лишь явная коллинеарность факторов. Наибольшие трудности в использовании аппарата множественной регрессии возникают при наличии мультиколлинеарности факторов, когда более чем два фактора связаны между собой линейной зависимостью, т.е. имеет место совокупное воздействие факторов друг на друга.
Для оценки мультиколлинеарности факторов может использоваться определитель матрицы парных коэффициентов корреляции между факторами.
Чем ближе к нулю определитель матрицы межфакторной корреляции, тем сильнее мультиколлинеарность факторов и ненадежнее результаты множественной регрессии. И, наоборот, чем ближе к единице определитель матрицы межфакторной корреляции, тем меньше мультиколлинеарность факторов.
Существует ряд подходов преодоления сильной межфакторной корреляции. Самый простой путь устранения мультиколлинеарности состоит в исключении из модели одного или нескольких факторов. Другой подход связан с преобразованием факторов, при котором уменьшается корреляция между ними.
При отборе факторов также рекомендуется пользоваться следующим правилом: число включаемых факторов обычно в 6–7 раз меньше объема совокупности, по которой строится регрессия. Если это соотношение нарушено, то число степеней свободы остаточной дисперсии очень мало. Это приводит к тому, что параметры уравнения регрессии оказываются статистически незначимыми, а -критерий меньше табличного значения.