- •1. Определение эконометрики. Предмет и метод эконометрики.
- •2.Классификация моделей и типы данных.
- •3.Этапы построения эконометрической модели:
- •4. Модель парной регрессии.
- •5. Случайный член. Причины его существования.
- •6. Условия нормальной линейной регрессии (Гаусса-Маркова).
- •7. Метод наименьших квадратов.
- •8. Свойства коэффициентов регрессии.
- •9. Нелинейная регрессия. Методы линеаризации.
- •11. Интерпретация линейного уравнения регрессии.
- •12. Определение тесноты связи между факторами: линейный коэффициент корреляции, коэффициент детерминации.
- •13. Оценка тесноты связи в нелинейной регрессионной модели.
- •15. Взаимосвязь t-статистики и f-статистики для парной регрессии.
- •16. Коэффициент эластичности.
- •17. Оценка статистической значимости уравнения в целом. F-критерий Фишера
- •18. Модель множественной регрессии.
- •19. Ограничения модели множественной регрессии.
- •20. Идентификация параметров множественной регрессии мнк.
- •21. Интерпретация параметров уравнения множественной регрессии
- •22. Показатели тесноты связи во множественном регрессионном анализе – парные и частные коэффициенты корреляции.
- •23. Стандартизированное уравнение множественной регрессии.
- •24. Коэффициент множественной корреляции, скорректированный коэффициент множественной корреляции, множественный коэффициент детерминации.
- •25. Оценка статистической значимости множественных коэффициентов регрессии, t-критерий Стьюдента.
- •26. Модели с переменной структурой (фиктивные переменные).
- •27. Оценка статистической значимости множественного уравнения регрессии, f-критерий Фишера.
- •28. Спецификация модели множественной регрессии. Свойства множественных коэффициентов регрессии.
- •29. Решение проблемы выбора модели (с ограничением и без ограничений).
- •30.Методы отбора факторов: априорный и апостериорный.
- •31. Гетероскедостичность и автокорреляция случайного члена.
- •32. Автокорреляция первого порядка и критерий Дарбина – Уотсона.
- •33. Тест серий (критерий Бреуша – Годфри)
- •34. Тест на гетероскедостичность: Голдфелда – Квандта, тест Уайта.
- •36. Структурная и приведенная формы модели.
- •37. Эндогенные и экзогенные переменные. Проблема идентифицируемости систем уравнений.
- •38. Оценивание параметров в системах одновременных уравнений: косвенный и двухшаговый мнк.
23. Стандартизированное уравнение множественной регрессии.
Возможен др. подход к построению модели множественной регрессии – это ур-е в стандартизированном масштабе.
Введем новые стандартиз. переменные по след правилу:
Zy = (y-y`)/бy,
где Zy - стандартиз завис перем,
(y-y`)/бy - среднеквадратич отклонение.
Zx1 = (x1-x`1)бx1
………………..
Zxk = (xk-x`k)бxk
Z`y = Z`x1 = Z`x2 =…= Z`xk = 0
бZy = бZx1 = бZx2 =…= бZxk = 1
Zy = B1Zx1 + B2Zx2 +…+BkZxk + U
ryx1 = B1 + B2rx2x1 + B3rx3x1+…+Bkrxkx1
ryx2 = B1rx1x2 + B2 + B3rx3x2+…+Bkrxkx2
…………………………………………..
ryxk = B1rx1xk + B2rx2xk+…+Bk
rx1x2 – парн коэфф коррел между соответствующими признаками
Zy = B`1Zx1 + B`2Zx2 +…+ B`kZxk
Стандартизированные коэффициенты регрессии показывают на сколько средних кв отклонений изм результат, если соотв фактор возрастет на одно среднее кв отклонение б.
В силу того, что что все переменные заданы как нормированные и центрированные стандартиз коэфф-ты регрессии Bj сравнимы между собой. На основе В коэфф-ов можно ранжировать факторы по силе их воздействия на рез-т.
Методы отбора факторов:
Проблема выбора оптимального состава регрессора решается на основе содержательного (качественного) и количественного анализа тенденций рассматриваемых процессов.На этапе сод анализа решается вопрос о целесообразности включения в модель тех или иных факторов исхода из эк теории и здравого смысла. Например, при моделировании макроэк произв функций, решается проблема установления самого факта взаимосвязи между явлениями. Однако каждое из явлений может быть описано разными факторами или даже комбинацией факторов. Поэтому на основании качественного анализа однозначно состав независимых переменных (регрессоров) установить нельзя, могут существовать альтернативные наборы независимых переменных.
24. Коэффициент множественной корреляции, скорректированный коэффициент множественной корреляции, множественный коэффициент детерминации.
Коэффициент множественной корреляции используется для оценки тесноты связи между зависимой переменной и всеми регрессорами.
R=√(σфакт2/σобщ2) = √(1-σост2/σобщ2)
R€[0;1]
R2 – коэффициент множественной детерминации
R2*100% - доля вариации у, обусловленная включенными в модель факторами
(1 - R2)*100% - доля вариации у, обусловленная невключенными в модель факторами
Скорректированный коэффициент множественной корреляции:
Коэффициент R2 показывает качество подгонки регрессионной модели к наблюдаемым значениям уi.
Если R2 = 0, то регрессионная модель не улучшает качество прогноза по сравнению с тривиальным (прогнозное значение зависимой переменной равно ее среднему значению).
Если R2 = 1, то регрессия точно подогнана. Все остатки ei = 0.
При добавлении объясняющей переменной в уравнение регрессии R2 никогда не уменьшается, а обычно увеличивается. Если взять число регрессоров равное числу наблюдений, всегда можно добиться того, что R2 = 1. Однако это означает, что данная модель имеет экономический смысл.
Такой недостаток R2 можно исправить, налагая штраф за введение дополнительного регрессора на величину коэффициента корреляции. Такой коэффициент называют скорректированным коэффициентом множественной корреляции.
R2 = 1 – (1 - R2)*((n - 1)/(n – k -1)) = R2 – k/(n – k -1)*(1 – k2)
Увеличение скорректированного коэффициента не обязательно означает, что коэффициент регрессии дополнительно введенного фактора статистически значим, и соответственно это не означает улучшения спецификации модели.
Можно показать, что добавление новой переменной ведет к увеличению скорректированного коэффициента множественной корреляции, или соответствующая t-статистика >1 (<-1), следовательно, увеличение исправленного коэффициента R2 при добавлении новой переменной необязательно означает, что дополнительная переменная статистически значима, т.е. ее коэффициент значимо отличается от 0, т.к. для статистической значимости при α =0,05, t>2 (<-2)
Y = α + β1x1 + β2x2+ β3x3 + u