- •1. Основные понятия математического моделирования социально-экономических систем
- •2. Предмет, цель и задачи эконометрики. Эконометрическая модель, основные этапы построения эконометрической модели.
- •Этапы эконометрического моделирования:
- •3. Простая (парная) линейная регрессия (плр). Классические предположения моделей.
- •Классические модельные предположения
- •4. Статистическое оценивание параметров плр по методу наименьших квадратов. Свойства мнк – оценок
- •Свойства мнк-оценок:
- •5. Проверка качества множественной линейной регрессии: значимость параметров, доверительные интервалы, адекватность модели. Прогнозирование.
- •6. Множественная линейная регрессия (млр). Классические предположения. Мнк-оценка параметров модели.
- •7. Свойства мнк-оценок множественной линейной регрессии. Теорема Гаусса- Маркова.
- •8. Проверка качества множественной линейной регрессии: значимость параметров, доверительные интервалы, адекватность модели. Прогнозирование.
- •5. Коэф. Детерминации
- •Прогнозирование по модели множественной линейной регрессии
- •9. Спецификация эконометрической модели: способы и диагностика отбора экзогенных переменных. Тесты Рамсея и Амемья.
- •Критерий Рамсея (Ramsey):
- •10. Спецификация эконометрической модели: выбор формы зависимости нелинейной модели
- •Принципы спецификаций
- •11. Проблема наличия мультиколлинеарности. Последствия наличия и диагностики мультиколлинеарности.
- •Методы диагноза мультиколлинеарности:
- •12. Методы устранения мультиколлинеарности. Метод главных компонент. Гребневая регрессия.
- •13. Проблемы гетероскедастичности модели. Критерии ее диагностики.
- •1. Критерий Парка (Park).
- •2. Критерий Голдфелда-Кандта (Goldfeld-Quandt).
- •3. Критерий Бриша-Пагана (Breusch-Pagan).
- •4. Критерий Вайта (White).
- •14. Обобщенный мнк (омнк). Свойства оценок млр по омнк. Взвешенный мнк в задаче оценивания параметров модели. Свойства оценок по взвешенному мнк.
- •Вопрос 15. Проблема автокорреляции остатков модели. Последствия автокорреляции при использовании модели.
- •Причины автокорреляции остатков
- •Последствия автокорреляции:
- •16. Критерий диагностики автокорреляции Дарбина-Уотсона
- •17.Методы устранения автокорреляции. Процедуры оценивания Кохрейна-Оркатта и Хильдрета-Лу
- •18. Модели с распределенными лагами: структура лагов по Койку: Частные случаи (модель с неполной корректировкой и адаптивных ожиданий)
- •19 Модели с распределенными лагами: линейно-арифметическая структура лагов и полиномиальная структура лагов по Алмон
- •20. Тест h-Дарбина и множественный тест Лагранжа проверки автокорреляции в лаговых моделях
- •21. Понятие временного ряда (вр). Модель вр, основные задачи анализа вр. Методы сглаживания вр (скользящего среднего, экспоненциального сглаживания, последовательных разностей)
- •22 Стационарность временного ряда (вр). Характеристики корреляции уровней вр.
- •23 Стационарные модели временных рядов: авторегрессии, скользящего среднего, арсс
- •24. Нестационарная модель арисс. Оценка параметров модели.
- •28. Прогнозирование временных рядов. Показатели точности прогнозов.
- •30. Тест Чоу диагностики включения фиктивных переменных в эконометрическую модель.
- •32. Системы одновременных эконометрических уравнений (соу). Структурная и приведенная форма соу (графическое и матричное представление).
- •33. Проблемы идентификации систем одновременных уравнений (соу). Идентифицируемость уравнений соу (порядковый и ранговый критерии)
- •34. Методы оценивания систем одновременных уравнений: косвенный мнк, двухшаговый мнк. Применимость и свойства оценок
- •35. Современное состояние эконометрики. Примеры больших эконометрических моделей
6. Множественная линейная регрессия (млр). Классические предположения. Мнк-оценка параметров модели.
При рассмотрении зависимости двух СВ говорят о парной регрессии. Зависимость нескольких переменных (множественная регрессия):
М(Y|x1, x2,…, xm) = f(x1, x2, …, xm)
где X = (X1, X2, ..., Xm) − вектор независимых (объясняющих) переменных; β − вектор параметров (подлежащих определению); ε − случайная ошибка (отклонение); Y-зависимая (объясняемая) переменная.
Теоретическое линейное уравнение регрессии (для индивидуальных наблюдений)
число степеней свободы:
ν = n –m-1
m - число параметров при переменных х (в линейной регрессии совпадает с числом включенных в модель факторов);
n - число наблюдений.
Чем оно меньше, тем ниже статистическая надежность оцениваемой формулы. Для надежности требуется, чтобы n в минимум 3 раза превосходило m.
Предпосылки МНК (см. вопр. 4)
Эмпирическое уравнение регрессии:
Отклонение еi эмпирического значения yi от рассчитанного с пом. МНК значения yi:
По МНК:
Условие минимума функции - равенство нулю всех ее частных производных по bj. Частные производные квадратичной функции являются линейными функциями.
Система нормальных уравнений МНК:
Матричная форма:
Y − вектор-столбец размерности n наблюдений зависимой переменной Y;
Х − матрица размерности n × (m + 1), в которой i-я строка (i = 1, 2, … , n) представляет наблюдение вектора значений независимых переменных X1, X2, …, Xm; единица соответствует переменной при свободном члене b0;
B − вектор-столбец размерности (m+ 1) параметров уравнения регрессии;
e − вектор-столбец размерности n отклонений выборочных (реальных) значений yi зависимой переменной Y от значений yi
e = Y − XB
7. Свойства мнк-оценок множественной линейной регрессии. Теорема Гаусса- Маркова.
Условия Гаусса-Маркова (свойства МНК-оценок)
–условие, гарантирующее несмещённость оценок МНК.
–условие гомоскедастичности.
–условие отсутствия автокорреляции предполагает отсутствие систематической связи между значениями случайного члена в любых двух наблюдениях.
для всех - условие независимости случайного возмущения и объясняющей переменной. Значение любой независимой переменной в каждом наблюдении должно считаться экзогенным, полностью определяемым внешними причинами, не учитываемыми в уравнении регрессии.
Теорема Гаусса-Маркова: если выполнены условия Гаусса-Маркова, тогда оценки , полученные с помощью метода наименьших квадратов, являются линейными, несмещёнными, эффективными и состоятельными оценками.
Линейность оценок – оценки параметров ипредставляют собой линейные комбинации наблюдаемых значений объясняемой переменной.
Несмещённость оценок:
Состоятельность оценок: Чем больше наблюдений, тем ближе подсчитанные а и б к реальным.
Эффективность – означает, что оценка имеет минимальную дисперсию в заданном классе оценок:
другое
Свойство эффективности оценок неизвестных параметров модели регрессии, полученных методом наименьших квадратов, доказывается с помощью теоремы Гаусса-Маркова.
Сделаем следующие предположения о модели парной регрессии:
1) факторная переменная xi– неслучайная или детерминированная величина, которая не зависит от распределения случайной ошибки модели регрессии
2) математическое ожидание случайной ошибки модели регрессии равно нулю во всех наблюдениях:
3) дисперсия случайной ошибки модели регрессии постоянна для всех наблюдений:;
4) между значениями случайных ошибок модели регрессии в любых двух наблюдениях отсутствует систематическая взаимосвязь, т. е. случайные ошибки модели регрессии не коррелированны между собой (ковариация случайных ошибок любых двух разных наблюдений равна нулю):
Это условие выполняется в том случае, если исходные данные не являются временными рядами;
5) на основании третьего и четвёртого условий часто добавляется пятое условие, заключающееся в том, что случайная ошибка модели регрессии – это случайная величина, подчиняющейся нормальному закону распределения с нулевым математическим ожиданием и дисперсией G2:
Если выдвинутые предположения справедливы, то оценки неизвестных параметров модели парной регрессии, полученные методом наименьших квадратов, имеют наименьшую дисперсию в классе всех линейных несмещённых оценок, т. е. МНК-оценки можно считать эффективными оценками неизвестных параметров и .
Если выдвинутые предположения справедливы для модели множественной регрессии, то оценки неизвестных параметров данной модели регрессии, полученные методом наименьших квадратов, имеют наименьшую дисперсию в классе всех линейных несмещённых оценок, т. е. МНК-оценки можно считать эффективными оценками неизвестных параметров.
Для обозначения дисперсий МНК-оценок неизвестных параметров модели регрессии используется матрица ковариаций.
Матрицей ковариаций МНК-оценок параметров линейной модели парной регрессии называется выражение вида:
где
– дисперсия МНК-оценки параметра модели регрессии ;
– дисперсия МНК-оценки параметра модели регрессии .
Матрицей ковариаций МНК-оценок параметров линейной модели множественной регрессии называется выражение вида:
где G2() – это дисперсия случайной ошибки модели регрессии .
Для линейной модели парной регрессии дисперсии оценок неизвестных параметров определяются по формулам:
1)
2) дисперсия МНК-оценки коэффициента модели регрессии :
где G2() – дисперсия случайной ошибки уравнения регрессии ;
G2(x) – дисперсия независимой переменой модели регрессии х;
n – объём выборочной совокупности.
В связи с тем, что на практике значение дисперсии случайной ошибки модели регрессии G2() неизвестно, для вычисления матрицы ковариаций МНК-оценок применяют оценку дисперсии случайной ошибки модели регрессии S2().
Для линейной модели парной регрессии оценка дисперсии случайной ошибки определяется по формуле:
где
– это остатки регрессионной модели, которые рассчитываются как
Тогда оценка дисперсии МНК-оценки коэффициента линейной модели парной регрессии будет определяться по формуле:
Оценка дисперсии МНК-оценки коэффициента линейной модели парной регрессии будет определяться по формуле:
Для модели множественной регрессии общую формулу расчёта матрицы ковариаций МНК-оценок коэффициентов на основе оценки дисперсии случайной ошибки модели регрессии можно записать следующим образом: