- •Эконометрическая модель.
- •Измерения в экономике. Шкалы измерений.
- •Случайные события и случайные переменные. Распределение случайных величин.
- •Статистические характеристики случайных величин и их свойства.
- •Основные функции распределения.
- •Оценки статистических характеристик и их желательные свойства.
- •Проверка статистических гипотез.
- •Критерий и критическая область.
- •Мощность статистического критерия. Уровень значимости.
- •Модель линейной регрессии.
- •Оценивание параметров регрессии. Метод наименьших квадратов.
- •Система нормальных уравнений мнк и ее решение.
- •Свойства оценок параметров, полученных методом наименьших квадратов. Условия Гаусса – Маркова.
- •Коэффициент детерминации и его свойства.
- •Предположение о нормальном распределении случайной ошибки в рамках классической линейной регрессии и его следствия.
- •Доверительные интервалы оценок параметров и проверка гипотез об их значимости.
- •Прогнозирование по регрессионной модели и его точность. Доверительные и интервалы прогноза.
- •Ковариационная матрица оценок коэффициентов регрессии.
- •Проверка значимости коэффициентов и адекватности регрессии для множественной линейной регрессионной модели.
- •Коэффициент множественной детерминации. Скорректированный коэффициент детерминации.
- •Проблемы спецификации регрессионной модели. Пошаговая регрессия.
- •Проблема смещения Предположим, что переменная у зависит от двух переменных х1, и х2 в соответствии с соотношением:
- •Неприменимость статистических тестов
- •Замещающие переменные. Фиктивные переменные.
- •Мультиколлинеарность. Влияние мультиколлинеарности на оценки параметров уравнения регрессии.
- •Методы борьбы с мультиколлинеарностью.
- •Линеаризация регрессионных моделей путем логарифмических преобразований.
- •Модели с постоянной эластичностью. Производственная функция Кобба - Дугласа.
- •Модель с постоянными темпами роста (полулогарифмическая модель).
- •Полиномиальная регрессия.
- •Кривая Филипса
- •Гетероскедастичность. Последствия гетероскедастичности для оценок параметров регрессии методом наименьших квадратов и проверки статистических гипотез.
- •Признаки гетероскедастичности и ее диагностирование. Обнаружение гетероскедастичности
- •1. Графический анализ остатков
- •2. Тест ранговой корреляции Спирмена
- •3. Тест Голдфелда-Квандта
- •Оценивание коэффициентов множественной линейной регрессии в условиях гетероскедастичности. Обобщенный метод наименьших квадратов.
- •Автокорреляция. Причины автокорреляции.
- •Влияние автокорреляции на свойства оценок мнк.
- •Тест серий. Статистика Дарбина – Уотсона.
- •Способы противодействия автокорреляции.
- •Стохастические объясняющие переменные. Последствия ошибок измерения.
- •Инструментальные переменные.
- •Лаговые переменные и экономические зависимости между разновременными значениями переменных.
- •Модели с распределенными лагами.
- •Модели авторегрессии как эквивалентное представление моделей с распределенными лагами.
- •Ожидания экономических агентов и лаговые переменные в моделях
- •Модели наивных и адаптивных ожиданий.
- •Модель гиперинфляции Кейгана.
- •44. Модель гиперинфляции Кейгана
- •Понятие об одновременных уравнениях. Структурная и приведенная форма модели.
- •Структурная и приведённая форма. Идентифицируемость
- •Примеры
- •Проблема идентификации. Неидентифицируемость и сверхидентифицированность.
- •Оценивание системы одновременных уравнений. Косвенный и двухшаговый мнк.
- •Системы эконометрических уравнений с лаговыми переменными.
- •Модель Кейнса.
- •Модель Клейна.
- •Матричная форма записи модели Клейна
Мультиколлинеарность. Влияние мультиколлинеарности на оценки параметров уравнения регрессии.
По величине парных коэффициентов корреляции обнаруживается лишь явная коллинеарность факторов. Наибольшие трудности в использовании аппарата множественной регрессии возникают при наличии мультиколлинеарноспш факторов, когда более чем два фактора связаны между собой линейной зависимостью, т. е. имеет место совокупное воздействие факторов друг на друга. Наличие мультиколлинеарности факторов может означать, что некоторые факторы будут всегда действовать в унисон. В результате вариация в исходных данных перестает быть полностью независимой, и нельзя оценить воздействие каждого фактора в отдельности. Чем сильнее мультиколлинеарность факторов, тем менее надежна оценка распределения суммы объясненной вариации по отдельным факторам с помощью метода наименьших квадратов (МНК).
Включение в модель мультиколлинеарных факторов нежелательно в силу следующих последствий:
затрудняется интерпретация параметров множественной регрессии как характеристик действия факторов в «чистом» виде, ибо факторы коррелированы; параметры линейной регрессии теряют экономический смысл;
оценки параметров ненадежны, обнаруживают большие стандартные ошибки и меняются с изменением объема наблюдений (не только по величине, но и по знаку), что делает модель неприигодной для анализа и прогнозирования.
Причинные мультиколлинеарности:
Ошибочное включение в уравнение двух и более линейно независимых переменных
Две или более объясняющие переменные, в нормальной ситуации слабо коррелированные, становятся в конкретных условиях выборки сильно коррелированными;
В модель включается переменная, сильно коррелирующая с зависимой переменной (такая независимая переменная называется доминантой).
Методы борьбы с мультиколлинеарностью.
Изменить или увеличить выборку;
Исключить одну из переменных;
Преобразовать мультиколлинеарные переменные:
Использовать нелинейные формы;
Использовать агрегаты (нелинейные комбинации нескольких переменных);
Использовать первые разницы в место самих переменных;
Ничего не делать!
Самое главное – выбрать правильное средство.
Сбор дополнительных данных — это самый простой способ устранения мультиколлинеарности, однако на практике это не всегда возможно.
Метод преобразования переменных — это способ замены всех переменных, включенных в модель. Например, вместо значений результативной переменной и факторных переменных можно взять их логарифмы. Тогда модель множественной регрессии имеет вид:
In у = В0 + В1In х1 + В2 In х2 + е.
Однако этот метод не гарантирует устранения мультиколлинеарности.
Гребневая регрессия (или ридж) — это один из смещенных методов оценки коэффициентов модели регрессии. Данный метод применяется в случае, когда ни одну из переменных, включенных в модель регрессии, нельзя удалить. Суть гребневой регрессии заключается в том, что ко всем диагональным элементам корреляционной матрицы (XТ X) добавляется число т (тау): 10 -6 < т < 0,1. Тогда неизвестные коэффициенты модели множественной регрессии будут определяться по формуле: В˜ = (ХТХ +тIn)-1 ХтY где In — единичная матрица.
Гребневая регрессия позволяет стабилизировать оценки коэффициентов модели множественной регрессии к определенному числу и уменьшить их стандартные ошибки.
Метод главных компонент — это основной метод исключения переменных из модели регрессии. В этом случае модель множественной регрессии строится не на основе матрицы факторных переменных X, а на основе матрицы главных компонент F.
Метод пошагового включения факторных переменных в модель регрессии — это метод определения из возможного набора факторных переменных именно тех, которые усилят качество модели регрессии.
Суть метода пошагового включения состоит в том, что из числа всех факторных переменных в модель регрессии включаются переменные, имеющие наибольший модуль парного линейного коэффициента корреляции с результативной переменной. При добавлении в модель регрессии новых факторных переменных их значимость проверяется с помощью F-критерия Фишера. Если Fнабл > Fкрит, то включение факторной переменной в модель множественной регрессии является обоснованным. Проверка факторных переменных на значимость осуществляется до тех пор, пока не найдется хотя бы одна переменная, для которой не выполняется условие F набл > F крит