- •Эконометрическая модель.
- •Измерения в экономике. Шкалы измерений.
- •Случайные события и случайные переменные. Распределение случайных величин.
- •Статистические характеристики случайных величин и их свойства.
- •Основные функции распределения.
- •Оценки статистических характеристик и их желательные свойства.
- •Проверка статистических гипотез.
- •Критерий и критическая область.
- •Мощность статистического критерия. Уровень значимости.
- •Модель линейной регрессии.
- •Оценивание параметров регрессии. Метод наименьших квадратов.
- •Система нормальных уравнений мнк и ее решение.
- •Свойства оценок параметров, полученных методом наименьших квадратов. Условия Гаусса – Маркова.
- •Коэффициент детерминации и его свойства.
- •Предположение о нормальном распределении случайной ошибки в рамках классической линейной регрессии и его следствия.
- •Доверительные интервалы оценок параметров и проверка гипотез об их значимости.
- •Прогнозирование по регрессионной модели и его точность. Доверительные и интервалы прогноза.
- •Ковариационная матрица оценок коэффициентов регрессии.
- •Проверка значимости коэффициентов и адекватности регрессии для множественной линейной регрессионной модели.
- •Коэффициент множественной детерминации. Скорректированный коэффициент детерминации.
- •Проблемы спецификации регрессионной модели. Пошаговая регрессия.
- •Проблема смещения Предположим, что переменная у зависит от двух переменных х1, и х2 в соответствии с соотношением:
- •Неприменимость статистических тестов
- •Замещающие переменные. Фиктивные переменные.
- •Мультиколлинеарность. Влияние мультиколлинеарности на оценки параметров уравнения регрессии.
- •Методы борьбы с мультиколлинеарностью.
- •Линеаризация регрессионных моделей путем логарифмических преобразований.
- •Модели с постоянной эластичностью. Производственная функция Кобба - Дугласа.
- •Модель с постоянными темпами роста (полулогарифмическая модель).
- •Полиномиальная регрессия.
- •Кривая Филипса
- •Гетероскедастичность. Последствия гетероскедастичности для оценок параметров регрессии методом наименьших квадратов и проверки статистических гипотез.
- •Признаки гетероскедастичности и ее диагностирование. Обнаружение гетероскедастичности
- •1. Графический анализ остатков
- •2. Тест ранговой корреляции Спирмена
- •3. Тест Голдфелда-Квандта
- •Оценивание коэффициентов множественной линейной регрессии в условиях гетероскедастичности. Обобщенный метод наименьших квадратов.
- •Автокорреляция. Причины автокорреляции.
- •Влияние автокорреляции на свойства оценок мнк.
- •Тест серий. Статистика Дарбина – Уотсона.
- •Способы противодействия автокорреляции.
- •Стохастические объясняющие переменные. Последствия ошибок измерения.
- •Инструментальные переменные.
- •Лаговые переменные и экономические зависимости между разновременными значениями переменных.
- •Модели с распределенными лагами.
- •Модели авторегрессии как эквивалентное представление моделей с распределенными лагами.
- •Ожидания экономических агентов и лаговые переменные в моделях
- •Модели наивных и адаптивных ожиданий.
- •Модель гиперинфляции Кейгана.
- •44. Модель гиперинфляции Кейгана
- •Понятие об одновременных уравнениях. Структурная и приведенная форма модели.
- •Структурная и приведённая форма. Идентифицируемость
- •Примеры
- •Проблема идентификации. Неидентифицируемость и сверхидентифицированность.
- •Оценивание системы одновременных уравнений. Косвенный и двухшаговый мнк.
- •Системы эконометрических уравнений с лаговыми переменными.
- •Модель Кейнса.
- •Модель Клейна.
- •Матричная форма записи модели Клейна
Свойства оценок параметров, полученных методом наименьших квадратов. Условия Гаусса – Маркова.
Условия Гаусса – Маркова:
1-е условие Гаусса—Маркова: M(ei) = 0 для всех наблюдений
Первое условие состоит в том, что математическое ожидание случайного члена в любом наблюдении должно быть равно нулю. Иногда случайный член будет положительным, иногда отрицательным, но он не должен иметь систематического смещения ни в одном из двух возможных направлений.
Фактически если уравнение регрессии включает постоянный член, то обычно бывает разумно предположить, что это условие выполняется автоматически, так как роль константы состоит в определении любой систематической тенденции в у, которую не учитывают объясняющие переменные, включенные в уравнение регрессии.
2-е условие Гаусса—Маркова: M(ei2) постоянна для всех наблюдений
Второе условие состоит в том, что дисперсия случайного члена должна быть постоянна для всех наблюдений. Иногда случайный член будет больше, иногда меньше, однако не должно быть априорной причины для того, чтобы он порождал большую ошибку в одних наблюдениях, чем в других.
Эта постоянная дисперсия обычно обозначается σ2, а условие записывается следующим образом:
M(ei2)=σ2
Величина σ2 конечно, неизвестна. Одна из задач регрессионного анализа состоит в оценке стандартного отклонения случайного члена.
Если рассматриваемое условие не выполняется, то коэффициенты регрессии, найденные по обычному методу наименьших квадратов, будут неэффективны, и можно получить более надежные результаты путем применения модифицированного метода регрессии.
3-е условие Гаусса—Маркова: Cov (ei,ej) = 0 (i≠j)
Это условие предполагает отсутствие систематической связи между значениями случайного члена в любых двух наблюдениях. Например, если случайный член велик и положителен в одном наблюдении, это не должно обусловливать систематическую тенденцию к тому, что он будет большим и положительным в следующем наблюдении (или большим и отрицательным, или малым и положительным, или малым и отрицательным). Случайные члены должны быть абсолютно независимы друг от друга.
В силу того, что Е (ei) = Е(ej) = 0, данное условие можно записать следующим образом:
M(eiej) = 0 (i≠j).
Если это условие не будет выполнено, то регрессия, оцененная по обычному методу наименьших квадратов, вновь даст неэффективные результаты. В следующих лекциях рассматриваются возникающие здесь проблемы и пути их преодоления.
4-е условие Гаусса—Маркова: случайный член должен быть распределен независимо от объясняющих переменных
В большинстве глав книги мы будем в сущности использовать более сильное предположение о том, что объясняющие переменные не являются стохастическими, т. е. не имеют случайной составляющей. Значение любой независимой переменной в каждом наблюдении должно считаться экзогенным, полностью определяемым внешними причинами, не учитываемыми в уравнении регрессии.
Если это условие выполнено, то теоретическая ковариация между независимой переменной и случайным членом равна нулю. Так как Е(e) = 0, то
Cov(xi,ei) = M{(хi – )(ei)} = M(xiei)- M(et) = M(xiui). Следовательно, данное условие можно записать также в виде:
M(xiei) = 0
Подробнее:
регрессия модель линейна по параметрам (коэффициентам), корректно специфицирована, и содержит аддитивный случайный член.
случайный член имеет нулевое среднее.
все объясняющие переменные не коррелированны мо случайным членом.
наблюдаемые значения случайного члена не коррелированные друг с другом.
Случайный член имеет постоянную дисперсию
Ни одна из объясняющих переменных не является строгой линейной функцией других объясняющих переменных.
Случайный член распределен нормально (необязательное, но часто используемое условие