- •4. Метод наименьших квадратов (мнк):
- •5 . Классическая линейная модель множественной регрессии
- •Оценка точности и адекватности регресионной модели
- •Понятие мультиколлинеарности. Основные признаки и последствия мультиколлинеарности
- •Понятие мультиколлинеарности. Основные признаки мультиколлинеарности и способы ее устранения
- •1 0. Стандартизованная и естественная формы уравнения множественной регрессии. Интерпретация параметров.
- •Обобщённая линейная модель множественной регрессии в случае гетероскедастичности остатков. Взвешенный метод наименьших квадратов
- •Тесты на гетероскедастичность: их преимущества и недостатки. Тест Голдфельда-Квандта
- •13. Тесты на гетероскедастичность: их преимущества и недостатки. Тест Уайта
- •1 4. Тесты на гетероскедастичность: их преимущества и недостатки. Тест Глейзера
- •Обобщённая линейная модель множественной регрессии. Понятие автокорреляции. Тесты на наличие автокореляции: их преимущества и недостатки.
- •Обобщённая линейная модель множественной регрессии. Теорема Айткена. Обобщённый метод наименьших квадратов.
- •Понятие автокорреляции. Тесты на наличие автокорреляции. Тест Бреуша-Годфри.
- •18. Понятие автокорреляции. Тесты на наличие автокорреляции. Тест Дарбина-Уотсона.
- •Понятие гетероскедастичности остатков. Оценка параметров модели в случае гетероскедастичности.
- •23. Неоднородность данных в регрессионном смысле. Использование фиктивных переменных в регрессионных моделях. Интерпритация коэф при фиктивных переменных.
- •24. Неоднородность данных в регрессионном сиысле. Тест Чоу на неоднородность данных.
- •25. Использование фиктивных переменных в регрессионных моделях. Интерпритация коэф при фиктивных переменных.
- •27. Нелинейные модели регрессии и их линеаризация. Примеры нелинейных моделей регрессии.
- •28. Линейная и степенная модели множественной регрессии: интерпритация параметров.
- •29. Производственная Кобба-Дугласа. Эластичность объема производства.
- •45. Модель спроса-предложения и её модификации
Понятие мультиколлинеарности. Основные признаки и последствия мультиколлинеарности
Мкол-ть - это наличие функциональной или тесной корреляционной зависимости между включенными в модель факторами.
Причины ее возникновения:
Наличие тесной связи между включаемыми в модель факторами
Наличие общего временного тренда у факторов
Признаки мультико-ти:
1) Незначительное изменение исходных данных (добавление новых наблюдений), приводит к существенному изменению оценок параметров.
2) Хотя в целом уравнение регрессии оказывается адекватным (по R2 и по Ф критерию Фишера) отдельные параметры могут иметь большие ошибки и быть не значимыми по Т критерию Стьюдента tbj=bj/mj
Оценки параметров имеют неправильные знаки или неоправданно большие значения с точки зрения теории.
Последствия:
1) Оценки параметров теряют интерпретацию, как характеристик действия факторов в чистом виде, т.е. теряет свой эк смысл => модель теряет практическую значимость
Оценки параметров являются ненадежными, тк меняются при изменении числа наблюдений и имеют большие стандартные ошибки
Понятие мультиколлинеарности. Основные признаки мультиколлинеарности и способы ее устранения
Мкол-ть - это наличие функциональной или тесной корреляционной зависимости между включенными в модель факторами.
Причины ее возникновения:
Наличие тесной связи между включаемыми в модель факторами
Наличие общего временного тренда у факторов
Признаки мультико-ти:
1) Незначительное изменение исходных данных (добавление новых наблюдений), приводит к существенному изменению оценок параметров.
2) Хотя в целом уравнение регрессии оказывается адекватным (по R2 и по Ф критерию Фишера) отдельные параметры могут иметь большие ошибки и быть не значимыми по Т критерию Стьюдента tbj=bj/mj
Оценки параметров имеют неправильные знаки или неоправданно большие значения с точки зрения теории.
Способы устранения:
1) Из двух тесно связанных между собой факторов,( r (коэф-т корреляции)≧0.7), один исключают из рассмотрения
Построение ридж (гребневой) регрессии. Переходит от несмещенных оценок параметров к смещенным, но имеющим меньшее рассеяние относительно оцениваемого параметра
3 ) Переход к главным компонентам от исходных переменных х1,х2,...,xn к новым компонентам z1,z2,...,zn называемыми главными компонентами и являющихяся линейными комбинациями исходных переменных. Между главными компонентами тесная корреляионная связь отсутствует
Преимущества способа:
1)k<m
2)нет потери исходной информации
использование итерационных (пошаговых процедур). Различают
процедура присоединения
процедура исключения/удаления
комбинация (процедура присоединения-удаления)
На 1 шаге в ур-е регрессии включается один фактор, имеющий максимальный по модулю значение коэф-та корреляции с рехультативным признаком y
y=f(xj) : [так что ] lrxjyl = max
На 2 шаге в модель включается второй фактор, дающий в паре с первым наибольшее значение скорректированного коэф-та детерминации
Н а 3 шаге включается в модель третий фактор, дающий с двумя предыдущими наибольшее значение скорректированного R2