Добавил:
Upload Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:
Вопросы к экзамену (кибер).doc
Скачиваний:
13
Добавлен:
05.08.2019
Размер:
2.13 Mб
Скачать
  1. Показатели тесноты связи во множественном регрессионном анализе - парные и частные коэффициенты корреляции.

Парные коэффициенты

Частные коэффициенты

Для решения проблемы коллинеарности можно использовать частные коэффициенты, которые характеризуют тесноту связи между результатом и регрессором при фиксированном влиянии других факторов.

Исключаем тот регрессор, для которого частный коэффициент наименьший, так как учтено взаимное влияние регрессоров.

  1. Стандартизированное уравнение множественной регрессии.

Существует другой подход к построению множественной регрессии – уравнение регрессии в стандартизированном масштабе.

Для этого введем стандартизированные переменные

Для этих переменных среднее значение равно 0, а среднее квадратическое отклонение равно 1.

К этому уравнению можно применить МНК. Система:

  • b – стандартизированные коэффициенты регрессии.

  • Они сравнимы между собой и можно ранжировать факторы по силе воздействия на результат.

  • Стандартизированный коэффициент регрессии – показывает, на сколько средних квадратических отклонений изменится результат, если соответствующий фактор изменится на 1 сигма при неизменной величине остальных факторов.

  1. Коэффициент множественной корреляции, скорректированный коэффициент множественной корреляции, множественный коэффициент детерминации.

Коэффициент множественной корреляции используется для оценки тесноты связи между зависимой переменной и всеми регрессорами, включенными в модель.

R2 – коэффициент множественной детерминации

доля вариации у, обусловленная включенными в модель факторами.

доля вариации у, обусловленная не включенными в модель факторами.

Скорректированный коэффициент множественной корреляции

Коэффициент R2 показывает качество подгонки регрессионной модели к наблюдаемым значениям уi.

Если R2 = 0, то регрессионная модель не улучшает качество прогноза по сравнению с тривиальным (прогнозное значение зависимой переменной равно ее среднему значению).

Если R2 =1, то регрессия точно подогнана. Все остатки еi =0.

При добавлении объясняющей переменной в уравнение регрессии R2 никогда не уменьшается, а обычно увеличивается. Если взять число регрессоров = числу наблюдений, всегда можно добиться, что R2 =1. Однако это не означает, что данная модель имеет экономический смысл.

Такой недостаток R2 можно исправить, налагая штраф за введение дополнительного регрессора на величину коэффициента корреляции. Такой коэффициент называют скорректированным коэффициентом множественной корреляции.

Увеличение скорректированного коэффициента не обязательно означает, что коэффициент регрессии дополнительно введенного фактора статистически значим и, соответственно, это не означает улучшение спецификации модели.

Поэтому данный коэффициент не используют в качестве диагностической величины, а рассматривают в качестве одного из целого ряда показателей.