Добавил:
Upload Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:
econometrics_rises.doc
Скачиваний:
11
Добавлен:
24.09.2019
Размер:
4.7 Mб
Скачать
  1. Понятие мультиколлинеарности. Основные признаки и последствия мультиколлинеарности

Мкол-ть - это наличие функциональной или тесной корреляционной зависимости между включенными в модель факторами.

Причины ее возникновения:

Наличие тесной связи между включаемыми в модель факторами

Наличие общего временного тренда у факторов

Признаки мультико-ти:

1) Незначительное изменение исходных данных (добавление новых наблюдений), приводит к существенному изменению оценок параметров.

2) Хотя в целом уравнение регрессии оказывается адекватным (по R2 и по Ф критерию Фишера) отдельные параметры могут иметь большие ошибки и быть не значимыми по Т критерию Стьюдента tbj=bj/mj

  1. Оценки параметров имеют неправильные знаки или неоправданно большие значения с точки зрения теории.

Последствия:

1) Оценки параметров теряют интерпретацию, как характеристик действия факторов в чистом виде, т.е. теряет свой эк смысл => модель теряет практическую значимость

  1. Оценки параметров являются ненадежными, тк меняются при изменении числа наблюдений и имеют большие стандартные ошибки

  1. Понятие мультиколлинеарности. Основные признаки мультиколлинеарности и способы ее устранения

Мкол-ть - это наличие функциональной или тесной корреляционной зависимости между включенными в модель факторами.

Причины ее возникновения:

Наличие тесной связи между включаемыми в модель факторами

Наличие общего временного тренда у факторов

Признаки мультико-ти:

1) Незначительное изменение исходных данных (добавление новых наблюдений), приводит к существенному изменению оценок параметров.

2) Хотя в целом уравнение регрессии оказывается адекватным (по R2 и по Ф критерию Фишера) отдельные параметры могут иметь большие ошибки и быть не значимыми по Т критерию Стьюдента tbj=bj/mj

  1. Оценки параметров имеют неправильные знаки или неоправданно большие значения с точки зрения теории.

Способы устранения:

1) Из двух тесно связанных между собой факторов,( r (коэф-т корреляции)≧0.7), один исключают из рассмотрения

  1. Построение ридж (гребневой) регрессии. Переходит от несмещенных оценок параметров к смещенным, но имеющим меньшее рассеяние относительно оцениваемого параметра

3 ) Переход к главным компонентам от исходных переменных х12,...,xn к новым компонентам z1,z2,...,zn называемыми главными компонентами и являющихяся линейными комбинациями исходных переменных. Между главными компонентами тесная корреляионная связь отсутствует

Преимущества способа:

1)k<m

2)нет потери исходной информации

  1. использование итерационных (пошаговых процедур). Различают

  1. процедура присоединения

  2. процедура исключения/удаления

  3. комбинация (процедура присоединения-удаления)

На 1 шаге в ур-е регрессии включается один фактор, имеющий максимальный по модулю значение коэф-та корреляции с рехультативным признаком y

  1. y=f(xj) : [так что ] lrxjyl = max

На 2 шаге в модель включается второй фактор, дающий в паре с первым наибольшее значение скорректированного коэф-та детерминации

Н а 3 шаге включается в модель третий фактор, дающий с двумя предыдущими наибольшее значение скорректированного R2

Соседние файлы в предмете [НЕСОРТИРОВАННОЕ]