- •1. Предмет и задачи курса.
- •1.1 Определение эконометрики. Взаимосвязь с другими науками. Эконометрика и экономическая теория. Эконометрика и статистика. Эконометрика и экономико-математические методы.
- •Чем собственно занимается эконометрист?
- •1.2 Области применения эконометрических моделей. Методологические вопросы построения эконометрических моделей: обзор используемых методов.
- •2. Спецификация переменных в уравнениях регрессии.
- •2.1. Эконометрические модели: общая характеристика, различия статистического и эконометрического подхода к моделированию.
- •2. Регрессионные модели с одним уравнением.
- •3. Системы одновременных уравнений.
- •2.2.Спецификация переменных в уравнение регрессии. Ошибки спецификации.
- •3. Парная и множественная регрессия.
- •3.1.Понятие о функциональной, статистической и корреляционных связях. Основные задачи корреляционно-регрессионного анализа.
- •3.2. Уравнение регрессии, его смысл и назначение. Выбор типа математической функции при построении уравнения регрессии.
- •3.3 Линейная модель парной регрессии. Метод наименьших квадратов (мнк). Свойство оценок мнк.
- •Статистические свойства оценок метода наименьших квадратов.
- •Дополнительное предположение о нормальном распределении ошибок
- •Свойств выборочных вариаций (дисперсий) и ковариаций.
- •Свойства остатков
- •Несмещенность мнк-оценок
- •Состоятельность оценок
- •Эффективность (оптимальность) оценок
- •Несмещённость.
- •Эффективность.
- •Противоречия между несмещённостью и минимальной дисперсией.
- •Влияние увеличения размера выборки на точность оценок.
- •Состоятельность.
- •3.4.Ковариация. Коэффициент ковариации. Показатели качества регрессии: линейный коэффициент регрессии, коэффициент детерминации.
- •3.5.Стандартная ошибка уравнения регрессии. Оценка статистической значимости показателей корреляции, параметров уравнения регрессии. Дисперсионный анализ. Критерии Фишера и Стьюдента.
- •Интервалы прогноза по линейному уравнению регрессии.
- •3.6. Понятие о множественной регрессии. Классическая линейная модель множественной регрессии (клммр). Определение параметров уравнения множественной регрессии методом наименьших квадратов.
- •Классическая модель множественной линейной регрессии.
- •Предпосылки классической многомерной линейной регрессионной модели.
- •Выбор формы уравнения регрессии.
- •Частные уравнения регрессии
- •Множественная корреляция
- •Частная корреляция
- •3.8. Оценка качества модели множественной регрессии: f-критерий Фишера, t-критерий Стьюдента. Мультиколлинеарность. Методы устранения мультиколлинеарности.
- •Глава 4. Предпосылки метода наименьших квадратов
- •4.1. Исследование остатков величин регрессии.
- •4.2. Проблема гетероскедастичности. Её экономические причины и методы выявления.
- •4.3. Линейные регрессионные модели с гетероскедастичными и автокоррелированными остатками.
Классическая модель множественной линейной регрессии.
y – регрессанд
xi – регрессоры
u – случайная составляющая.
Модель множественной регрессии является обобщением модели парной регрессии на многомерный случай.
Независимые переменные (х) предполагаются не случайными (детерминированными) величинами.
Переменная х1 = xi1 = 1 называется вспомогательной переменной для свободного члена и еще в уравнениях она называется параметром сдвиги.
«y» и «u» в (2) являются реализациями случайной величины.
- называется также параметром сдвига.
Для статистической оценки параметров регрессионной модели необходим набор (множество) данных наблюдений независимых и зависимых переменных. Данные могут быть представлены в виде пространственных данных или временных рядов наблюдений. Для каждого из таких наблюдений согласно линейной модели можно записать:
Векторно-матричная запись системы (3).
Введем следующие обозначения:
вектор-столбец независимой переменной (регрессанда)
размерность матрицы (n•1)
Матрица наблюдений независимых переменных (регрессоров):
размер (n*k)
Вектор-столбец параметров:
- матричная запись системы уравнений (3). Она проще и компактнее.
Предпосылки классической многомерной линейной регрессионной модели.
Сформируем предпосылки, которые необходимы при выводе уравнении для оценок параметров модели, изучения их свойств и тестирования качества модели. Эти предпосылки обобщают и дополняют предпосылки классической модели парной линейной регрессии (условия Гаусса – Маркова).
Предпосылка 1. независимые переменные не случайны и измеряются без ошибок. Это означает, что матрица наблюдений Х – детерминированная.
Предпосылка 2. (первое условие Гаусса – Маркова): Математическое ожидание случайной составляющей в каждом наблюдении равно нулю.
Предпосылка 3. (второе условие Гаусса – Маркова): теоретическая дисперсия случайной составляющей одинакова для всех наблюдений.
(Это гомоскедастичность)
Предпосылка 4. (третье условие Гаусса – Маркова): случайные составляющие модели не коррелированны для различных наблюдений. Это означает, что теоретическая ковариация
Предпосылки (3) и (4) удобно записать, используя векторные обозначения:
матрица - симметричная матрица. - единичная матрица размерности n, верхний индекс Т – транспонирование.
Матрица называется теоретической матрицей ковариаций (или ковариационной матрицей).
Предпосылка 5. (четвертое условие Гаусса – Маркова): случайная составляющая и объясняющие переменные не коррелированны (для модели нормальной регрессии это условие означает и независимость). В предположении, что объясняющие переменные не случайные, эта предпосылка в классической регрессионной модели всегда выполняется.
Предпосылка 6. Коэффициенты регрессии – постоянные величины.
Предпосылка 7. Уравнение регрессии идентифицируемо. Это означает, что параметры уравнения в принципе оцениваемы, или решение задачи оценивания параметров существует и единственно.
Предпосылка 8. Регрессоры не коллинеарны. В таком случае матрица наблюдений регрессоров должна быть полного ранга. (ее столбцы должны быть линейно независимы). Данная предпосылка тесно связана с предыдущей, так как при применении для оценивания коэффициентов МНК ее выполнение гарантирует идентифицируемость модели (если количество наблюдений больше количества оцениваемых параметров).
Предпосылка 9. Количество наблюдений больше количества оцениваемых параметров, т.е. n>k.
Все эти 1-9 предпосылки одинаково важны, и только при их выполнении можно применять классическую регрессионную модель на практике.
Предпосылка о нормальности случайной составляющей. При построении доверительных интервалов для коэффициентов модели и прогнозов зависимой переменной, проверки статистических гипотез относительно коэффициентов, разработке процедур для анализа адекватности (качества) модели в целом необходимо предположение о нормальном распределении случайной составляющей. С учетом этой предпосылки модель (1) называется классической многомерной линейной моделью регрессии.
Если предпосылки не выполняются, то необходимо строить так называемые обобщенные модели линейной регрессии. От того, насколько корректно (правильно) и осознанно используются возможности регрессионного анализа, зависит успех эконометрического моделирования, и в конечном счете, обоснованность принимаемых решений.