Добавил:
Upload Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:
OTVYeT_PO_EKONOMYeTRIKYe.doc
Скачиваний:
17
Добавлен:
25.04.2019
Размер:
566.78 Кб
Скачать

21. Интерпретация параметров уравнения множественной регрессии

y=a + b1x1 +b2x2 +…+bkxk

Параметр а в уравнении множественной регрессии показывает, чему равна объясняемая переменная y, при условии что все объясняющие переменные равны нулю (экономически это может иметь или не иметь смысла).

Параметр bi показывает на сколько единиц изменится у в своих единицах измерения, если факторный признак хi увеличится на одну единицу своего измерения.

Если хi - фактическая переменная, то параметр bi показывает на сколько единиц изменится у в своих единицах измерения, если факторный признак хi увеличится на одну единицу своего измерения при прочих фиксированных переменных.

yt=β12xt23xt3+…+ βkxtkt

Если |βi|<|βi+1|, то сила влияния xti на yt больше, чем сила влияния xti+1 на yt.

22. Показатели тесноты связи во множественном регрессионном анализе – парные и частные коэффициенты корреляции.

Для анализа тесноты связи используются три группы коэффициентов:

1)парные

2) частные

3) множественные

Парные коэффициенты – это обычные линейные коэффициенты корреляции, которые характеризуют тесноту линейной связи между парами признаков.

rxjy = ((xjy)ср - хсрjуср)/σxjσy

rxjxs = (xjxsср - хсрjxsср)/σxjσxs

Мультиколлинеарность – ситуация, когда регрессоры тесно связаны между собой. Для оценки мультиколлинеарности составляется и анализируется матрица парных коэффициентов корреляции. В первой строке и в первом столбце записывают все факторы, начиная с зависимой переменной. В клетках матрицы рассчитывают соответствующие парные коэффициенты корреляции.

Парные коэффициенты корреляции между регрессорами так же могут принимать значения в пределах от -1 до 1 и имеют такую же интерпретацию как для случая корреляции с зависимой переменной.

Если rxjxs>0,7 тогда считают, что регрессоры коллинеарные, т.е. между регрессорами существует тесная связь. В этом случае нельзя определить изолированное влияние на результирующий показатель и параметры уравнения регрессии оказываются неинтерпретируемыми.

Возникает вопрос: нужно ли исключать коррелируемые регрессоры? Однозначного ответа на этот вопрос нет. Существует даже такая школа, представители которой считают, что и не нужно ничего делать, поскольку «так устроен мир». Другие эконометристы считают, что необходимо исключить «лишние» регрессоры, которые могут служить причиной мультиколлинеарности.

Одна из самых главных проблем, которую порождает мультиколлинеарность статистическая незначимость коэффициентов регрессии.

Во-первых, не всегда ясно, какие переменные являются «лишними». Во-вторых, удаление независимых переменных может значительно отразиться на содержательном смысле модели. В-третьих, удаление переменных, которые реально влияют на изучаемую зависимую пременную приводит к смещению МНК-оценок.

Теоретически регрессионная модель позволяет учесть любое число факторов, практически в этом нет необходимости.

Отбор факторов проводится на основе качественного теоретико-экономического анализа. Но теоретический анализ не всегда позволяет однозначно ответить на вопрос о количественной взаимосвязи рассматриваемых признаков и целесообразности включения их в модель.

Поэтому отбор факторов обычно проводится в два этапа:

  1. Отбираются факторы, исходя из сущности проблемы

  2. На основе матрицы парных коэффициентов корреляции и определения t-статистик для параметров регрессии.

Если факторы явно коллинеарны, то они дублируют друг друга и один из них рекомендуется исключить из регрессии. Предпочтение при этом отдается не фактору, более тесно связанному с результатом, а тому фактору, который при достаточно тесной связи с результатом имеет наименьшую тесноту с другими факторами.

Частные коэффициенты корреляции:

Для решения проблемы коллинеарности можно использовать частные коэффициенты, которые характеризуют тесноту связи между результатом и регрессором при фиксированном влиянии др факторов

ryx1x2 = (ryx1 – ryx1rx1x2)/√(1-ryx22)(1-rx1x22)

Исключаем тот регрессор, для которого частный коэффициент наименьший, т.к. учтено взаимное влияние регрессоров.

Соседние файлы в предмете [НЕСОРТИРОВАННОЕ]