Добавил:
Upload Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:
Voprosy_po_ekonometrike_2012_1.doc
Скачиваний:
28
Добавлен:
21.09.2019
Размер:
2.99 Mб
Скачать
  1. Мультиколлинеарность. Влияние мультиколлинеарности на оценки параметров уравнения регрессии.

По величине парных коэффициентов корреляции обнаружи­вается лишь явная коллинеарность факторов. Наибольшие труд­ности в использовании аппарата множественной регрессии воз­никают при наличии мультиколлинеарноспш факторов, когда более чем два фактора связаны между собой линейной зависимос­тью, т. е. имеет место совокупное воздействие факторов друг на друга. Наличие мультиколлинеарности факторов может озна­чать, что некоторые факторы будут всегда действовать в унисон. В результате вариация в исходных данных перестает быть полно­стью независимой, и нельзя оценить воздействие каждого факто­ра в отдельности. Чем сильнее мультиколлинеарность факторов, тем менее надежна оценка распределения суммы объясненной вариации по отдельным факторам с помощью метода наименьших квадратов (МНК).

Включение в модель мультиколлинеарных факторов нежела­тельно в силу следующих последствий:

  • затрудняется интерпретация параметров множественной регрессии как характеристик действия факторов в «чистом» виде, ибо факторы коррелированы; параметры линейной регрессии теряют экономический смысл;

  • оценки параметров ненадежны, обнаруживают большие стандартные ошибки и меняются с изменением объема наблюдений (не только по величине, но и по знаку), что делает модель неприигодной для анализа и прогнозирования.

Причинные мультиколлинеарности:

  1. Ошибочное включение в уравнение двух и более линейно независимых переменных

  2. Две или более объясняющие переменные, в нормальной ситуации слабо коррелированные, становятся в конкретных условиях выборки сильно коррелированными;

  3. В модель включается переменная, сильно коррелирующая с зависимой переменной (такая независимая переменная называется доминантой).

  1. Методы борьбы с мультиколлинеарностью.

  1. Изменить или увеличить выборку;

  2. Исключить одну из переменных;

  3. Преобразовать мультиколлинеарные переменные:

  • Использовать нелинейные формы;

  • Использовать агрегаты (нелинейные комбинации нескольких переменных);

  • Использовать первые разницы в место самих переменных;

  1. Ничего не делать!

Самое главное – выбрать правильное средство.

Сбор дополнительных данных — это самый простой способ устранения мультиколлинеарности, однако на практике это не всегда возможно.

Метод преобразования переменных — это способ замены всех переменных, включенных в модель. Например, вместо значений результа­тивной переменной и факторных переменных мож­но взять их логарифмы. Тогда модель множест­венной регрессии имеет вид:

In у = В0 + В1In х1 + В2 In х2 + е.

Однако этот метод не гарантирует устране­ния мультиколлинеарности.

Гребневая регрессия (или ридж) — это один из смещенных методов оценки коэффи­циентов модели регрессии. Данный метод при­меняется в случае, когда ни одну из переменных, включенных в модель регрессии, нельзя удалить. Суть гребневой регрессии заключается в том, что ко всем диагональным элементам корреля­ционной матрицы (XТ X) добавляется число т (тау): 10 -6 < т < 0,1. Тогда неизвестные коэффициенты модели множественной регрессии будут определяться по формуле: В˜ = (ХТХ +тIn)-1 ХтY где In — единичная матрица.

Гребневая регрессия позволяет стабилизи­ровать оценки коэффициентов модели множест­венной регрессии к определенному числу и уменьшить их стандартные ошибки.

Метод главных компонент — это основ­ной метод исключения переменных из модели регрессии. В этом случае модель множествен­ной регрессии строится не на основе матрицы факторных переменных X, а на основе матрицы главных компонент F.

Метод пошагового включения факторных переменных в модель регрессии — это метод определения из возможного набора факторных переменных именно тех, которые усилят качест­во модели регрессии.

Суть метода пошагового включения состоит в том, что из числа всех факторных переменных в модель регрессии включаются переменные, имеющие наибольший модуль парного линейно­го коэффициента корреляции с результативной переменной. При добавлении в модель регрес­сии новых факторных переменных их значимость проверяется с помощью F-критерия Фишера. Если Fнабл > Fкрит, то включение факторной пере­менной в модель множественной регрессии явля­ется обоснованным. Проверка факторных пере­менных на значимость осуществляется до тех пор, пока не найдется хотя бы одна переменная, для которой не выполняется условие F набл > F крит

Соседние файлы в предмете [НЕСОРТИРОВАННОЕ]