- •1. Определение эконометрики. Предмет и метод эконометрики.
- •2.Классификация моделей и типы данных.
- •3.Этапы построения эконометрической модели:
- •4. Модель парной регрессии.
- •5. Случайный член. Причины его существования.
- •6. Условия нормальной линейной регрессии (Гаусса-Маркова).
- •7. Метод наименьших квадратов.
- •8. Свойства коэффициентов регрессии.
- •9. Нелинейная регрессия. Методы линеаризации.
- •11. Интерпретация линейного уравнения регрессии.
- •12. Определение тесноты связи между факторами: линейный коэффициент корреляции, коэффициент детерминации.
- •13. Оценка тесноты связи в нелинейной регрессионной модели.
- •15. Взаимосвязь t-статистики и f-статистики для парной регрессии.
- •16. Коэффициент эластичности.
- •17. Оценка статистической значимости уравнения в целом. F-критерий Фишера
- •18. Модель множественной регрессии.
- •19. Ограничения модели множественной регрессии.
- •20. Идентификация параметров множественной регрессии мнк.
- •21. Интерпретация параметров уравнения множественной регрессии
- •22. Показатели тесноты связи во множественном регрессионном анализе – парные и частные коэффициенты корреляции.
- •23. Стандартизированное уравнение множественной регрессии.
- •24. Коэффициент множественной корреляции, скорректированный коэффициент множественной корреляции, множественный коэффициент детерминации.
- •25. Оценка статистической значимости множественных коэффициентов регрессии, t-критерий Стьюдента.
- •26. Модели с переменной структурой (фиктивные переменные).
- •27. Оценка статистической значимости множественного уравнения регрессии, f-критерий Фишера.
- •28. Спецификация модели множественной регрессии. Свойства множественных коэффициентов регрессии.
- •29. Решение проблемы выбора модели (с ограничением и без ограничений).
- •30.Методы отбора факторов: априорный и апостериорный.
- •31. Гетероскедостичность и автокорреляция случайного члена.
- •32. Автокорреляция первого порядка и критерий Дарбина – Уотсона.
- •33. Тест серий (критерий Бреуша – Годфри)
- •34. Тест на гетероскедостичность: Голдфелда – Квандта, тест Уайта.
- •36. Структурная и приведенная формы модели.
- •37. Эндогенные и экзогенные переменные. Проблема идентифицируемости систем уравнений.
- •38. Оценивание параметров в системах одновременных уравнений: косвенный и двухшаговый мнк.
7. Метод наименьших квадратов.
Самым популярным методом идентификации функции является МНК.
Остаток или отклонение – это разница между наблюдаемыми значениями у и ее теоретическими значениями в каждом наблюдении, т.е. при каждом значении х.
Х1 (у1 –Ŷ1)2 = е12
Х2 (у2 –Ŷ2)2 = е22
Хn (уn –Ŷn)2 = еn2
S =Σei2 = Σ(уi –Ŷi)2 = Σ(уi – a – bxi)2 min
Система ур-й: частная дисперсия S по a = 0
частная дисперсия S по b = 0
a = yср – bxср
b = ((xy)ср - хсруср)/((x2)ср – xср2) = cov(x,y)/var(x)
МНК (метод нахождения минимума) – метод оценки параметров модели через минимизацию суммы квадратов отклонений фактических значений от теоретических.
8. Свойства коэффициентов регрессии.
Y = α + βx +u
Ŷ = a +bx – теоретическое уравнение регрессия
а- α + ξ1
b – β + ξ2
Свойства коэффициентов регрессии зависят от свойств случайной компоненты и чтобы оценки, найденные по методу наименьших квадратов были наилучшими, т.е. несмещенными, эффективными, состоятельными, случайная компонента должна удовлетворять четырем условиям Гаусса – Маркова.
1. Математическое ожидание случайной компоненты в любом наблюдении должно быть равно 0. E(ui) = 0
Иногда случайная компонента положительна, иногда отрицательна, но она не должна иметь системного смещения ни в одном из двух возможных направлений.
Если уравнение регрессии включает константу, то можно предположить, что это условие выполняется автоматически, т.к. роль константы состоит в определении любой систематической тенденции в поведении у, которую не учитывают объясняющие переменные, включенные в модель.
2.Дисперсия случайной компоненты должна быть постоянна для любых наблюдений. Иногда случайная компонента будет больше или меньше, но не должно быть априорной причины, для того чтобы она порождала большую ошибку в одних уравнениях, чем в других.
σu2-постоянна
Если это условие выполняется, то говорят, что дисперсия ошибки гомоскедостична, в противном случае присутствует гетероскедостичность ошибки.
3. Значения случайной компоненты должны быть независимы в разных наблюдениях. Если это условие выполняется, то говорят, что отсутствует автокорреляция случайной компоненты.
E(ui, uj) = 0, i≠j
Если случайная компонента велика и положительна в одном наблюдении, то это не должно обязательно обуславливать системную тенденцию к тому, что она будет велика и положительна в др наблюдении.
4.Случайная компонента должна быть распределена независимо от объясняющих переменных.
E(ui, xi) = 0
Иногда формулируют дополнительное условие о нормальности распределения случайной компоненты. Если случайная компонента распределена нормально, то и оценки параметров распределены нормально вокруг истинных значений.
9. Нелинейная регрессия. Методы линеаризации.
Два класса нелинейной регрессии:
Нелинейные относительно включенных в анализ объясняющих переменных, но линейные относительно оцениваемых параметров.
Нелинейные по оцениваемым параметрам модели.
Для первого класса может быть использован МНК.
Функции второго класса требуют линеаризации.
Функции второго класса делятся на две группы:
Внутренние линейные функции (могут быть линеаризованы)
Внутренние нелинейные функции
К внутренним линейным функциям может быть применим МНК после их линеаризации.
К внутренним нелинейным функциям этот метод не применяется.