- •1. Определение эконометрики. Предмет и метод эконометрики.
- •2.Классификация моделей и типы данных.
- •3.Этапы построения эконометрической модели:
- •4. Модель парной регрессии.
- •5. Случайный член. Причины его существования.
- •6. Условия нормальной линейной регрессии (Гаусса-Маркова).
- •7. Метод наименьших квадратов.
- •8. Свойства коэффициентов регрессии.
- •9. Нелинейная регрессия. Методы линеаризации.
- •11. Интерпретация линейного уравнения регрессии.
- •12. Определение тесноты связи между факторами: линейный коэффициент корреляции, коэффициент детерминации.
- •13. Оценка тесноты связи в нелинейной регрессионной модели.
- •15. Взаимосвязь t-статистики и f-статистики для парной регрессии.
- •16. Коэффициент эластичности.
- •17. Оценка статистической значимости уравнения в целом. F-критерий Фишера
- •18. Модель множественной регрессии.
- •19. Ограничения модели множественной регрессии.
- •20. Идентификация параметров множественной регрессии мнк.
- •21. Интерпретация параметров уравнения множественной регрессии
- •22. Показатели тесноты связи во множественном регрессионном анализе – парные и частные коэффициенты корреляции.
- •23. Стандартизированное уравнение множественной регрессии.
- •24. Коэффициент множественной корреляции, скорректированный коэффициент множественной корреляции, множественный коэффициент детерминации.
- •25. Оценка статистической значимости множественных коэффициентов регрессии, t-критерий Стьюдента.
- •26. Модели с переменной структурой (фиктивные переменные).
- •27. Оценка статистической значимости множественного уравнения регрессии, f-критерий Фишера.
- •28. Спецификация модели множественной регрессии. Свойства множественных коэффициентов регрессии.
- •29. Решение проблемы выбора модели (с ограничением и без ограничений).
- •30.Методы отбора факторов: априорный и апостериорный.
- •31. Гетероскедостичность и автокорреляция случайного члена.
- •32. Автокорреляция первого порядка и критерий Дарбина – Уотсона.
- •33. Тест серий (критерий Бреуша – Годфри)
- •34. Тест на гетероскедостичность: Голдфелда – Квандта, тест Уайта.
- •36. Структурная и приведенная формы модели.
- •37. Эндогенные и экзогенные переменные. Проблема идентифицируемости систем уравнений.
- •38. Оценивание параметров в системах одновременных уравнений: косвенный и двухшаговый мнк.
21. Интерпретация параметров уравнения множественной регрессии
y=a + b1x1 +b2x2 +…+bkxk
Параметр а в уравнении множественной регрессии показывает, чему равна объясняемая переменная y, при условии что все объясняющие переменные равны нулю (экономически это может иметь или не иметь смысла).
Параметр bi показывает на сколько единиц изменится у в своих единицах измерения, если факторный признак хi увеличится на одну единицу своего измерения.
Если хi - фактическая переменная, то параметр bi показывает на сколько единиц изменится у в своих единицах измерения, если факторный признак хi увеличится на одну единицу своего измерения при прочих фиксированных переменных.
yt=β1+β2xt2+β3xt3+…+ βkxtk+ξt
Если |βi|<|βi+1|, то сила влияния xti на yt больше, чем сила влияния xti+1 на yt.
22. Показатели тесноты связи во множественном регрессионном анализе – парные и частные коэффициенты корреляции.
Для анализа тесноты связи используются три группы коэффициентов:
1)парные
2) частные
3) множественные
Парные коэффициенты – это обычные линейные коэффициенты корреляции, которые характеризуют тесноту линейной связи между парами признаков.
rxjy = ((xjy)ср - хсрjуср)/σxjσy
rxjxs = (xjxsср - хсрjxsср)/σxjσxs
Мультиколлинеарность – ситуация, когда регрессоры тесно связаны между собой. Для оценки мультиколлинеарности составляется и анализируется матрица парных коэффициентов корреляции. В первой строке и в первом столбце записывают все факторы, начиная с зависимой переменной. В клетках матрицы рассчитывают соответствующие парные коэффициенты корреляции.
Парные коэффициенты корреляции между регрессорами так же могут принимать значения в пределах от -1 до 1 и имеют такую же интерпретацию как для случая корреляции с зависимой переменной.
Если rxjxs>0,7 тогда считают, что регрессоры коллинеарные, т.е. между регрессорами существует тесная связь. В этом случае нельзя определить изолированное влияние на результирующий показатель и параметры уравнения регрессии оказываются неинтерпретируемыми.
Возникает вопрос: нужно ли исключать коррелируемые регрессоры? Однозначного ответа на этот вопрос нет. Существует даже такая школа, представители которой считают, что и не нужно ничего делать, поскольку «так устроен мир». Другие эконометристы считают, что необходимо исключить «лишние» регрессоры, которые могут служить причиной мультиколлинеарности.
Одна из самых главных проблем, которую порождает мультиколлинеарность статистическая незначимость коэффициентов регрессии.
Во-первых, не всегда ясно, какие переменные являются «лишними». Во-вторых, удаление независимых переменных может значительно отразиться на содержательном смысле модели. В-третьих, удаление переменных, которые реально влияют на изучаемую зависимую пременную приводит к смещению МНК-оценок.
Теоретически регрессионная модель позволяет учесть любое число факторов, практически в этом нет необходимости.
Отбор факторов проводится на основе качественного теоретико-экономического анализа. Но теоретический анализ не всегда позволяет однозначно ответить на вопрос о количественной взаимосвязи рассматриваемых признаков и целесообразности включения их в модель.
Поэтому отбор факторов обычно проводится в два этапа:
Отбираются факторы, исходя из сущности проблемы
На основе матрицы парных коэффициентов корреляции и определения t-статистик для параметров регрессии.
Если факторы явно коллинеарны, то они дублируют друг друга и один из них рекомендуется исключить из регрессии. Предпочтение при этом отдается не фактору, более тесно связанному с результатом, а тому фактору, который при достаточно тесной связи с результатом имеет наименьшую тесноту с другими факторами.
Частные коэффициенты корреляции:
Для решения проблемы коллинеарности можно использовать частные коэффициенты, которые характеризуют тесноту связи между результатом и регрессором при фиксированном влиянии др факторов
ryx1x2 = (ryx1 – ryx1rx1x2)/√(1-ryx22)(1-rx1x22)
Исключаем тот регрессор, для которого частный коэффициент наименьший, т.к. учтено взаимное влияние регрессоров.