- •Эконометрическая модель.
- •Измерения в экономике. Шкалы измерений.
- •Случайные события и случайные переменные. Распределение случайных величин.
- •Статистические характеристики случайных величин и их свойства.
- •Основные функции распределения.
- •Оценки статистических характеристик и их желательные свойства. (нету)
- •Проверка статистических гипотез.
- •Критерий и критическая область.
- •Мощность статистического критерия. Уровень значимости.
- •Модель линейной регрессии.
- •Свойства оценок параметров, полученных методом наименьших квадратов. Условия Гаусса – Маркова.
- •Коэффициент детерминации и его свойства.
- •Предположение о нормальном распределении случайной ошибки в рамках классической линейной регрессии и его следствия.
- •Прогнозирование по регрессионной модели и его точность. Доверительные и интервалы прогноза (с лекции)
- •Ковариационная матрица оценок коэффициентов регрессии.
- •19. Проверка значимости коэффициентов и адекватности регрессии для множественной линейной регрессионной модели.
- •20. Коэффициент множественной детерминации. Скорректированный коэффициент детерминации.
- •21. Проблемы спецификации регрессионной модели. Пошаговая регрессия.
- •22. Замещающие переменные. Фиктивные переменные.
- •Методы борьбы с мультиколлинеарностью.
- •Линеаризация регрессионных моделей путем логарифмических преобразований.
Методы борьбы с мультиколлинеарностью.
Изменить или увеличить выборку;
Исключить одну из переменных;
Преобразовать мультиколлинеарные переменные:
Использовать нелинейные формы;
Использовать агрегаты (нелинейные комбинации нескольких переменных);
Использовать первые разницы в место самих переменных;
Ничего не делать! Самое главное – выбрать правильное средство.
Сбор дополнительных данных — это самый простой способ устранения мультиколлинеарности, однако на практике это не всегда возможно.
Метод преобразования переменных — это способ замены всех переменных, включенных в модель. Например, вместо значений результативной переменной и факторных переменных можно взять их логарифмы. Тогда модель множественной регрессии имеет вид:
In у = В0 + В1In х1 + В2 In х2 + е.
Однако этот метод не гарантирует устранения мультиколлинеарности.
Гребневая регрессия (или ридж) — это один из смещенных методов оценки коэффициентов модели регрессии. Данный метод применяется в случае, когда ни одну из переменных, включенных в модель регрессии, нельзя удалить. Суть гребневой регрессии заключается в том, что ко всем диагональным элементам корреляционной матрицы (XТ X) добавляется число т (тау): 10 -6 < т < 0,1. Тогда неизвестные коэффициенты модели множественной регрессии будут определяться по формуле: В˜ = (ХТХ +тIn)-1 ХтY где In — единичная матрица.
Гребневая регрессия позволяет стабилизировать оценки коэффициентов модели множественной регрессии к определенному числу и уменьшить их стандартные ошибки.
Метод главных компонент — это основной метод исключения переменных из модели регрессии. В этом случае модель множественной регрессии строится не на основе матрицы факторных переменных X, а на основе матрицы главных компонент F.
Метод пошагового включения факторных переменных в модель регрессии — это метод определения из возможного набора факторных переменных именно тех, которые усилят качество модели регрессии.
Суть метода пошагового включения состоит в том, что из числа всех факторных переменных в модель регрессии включаются переменные, имеющие наибольший модуль парного линейного коэффициента корреляции с результативной переменной. При добавлении в модель регрессии новых факторных переменных их значимость проверяется с помощью F-критерия Фишера. Если Fнабл > Fкрит, то включение факторной переменной в модель множественной регрессии является обоснованным. Проверка факторных переменных на значимость осуществляется до тех пор, пока не найдется хотя бы одна переменная, для которой не выполняется условие F набл > F крит
Линеаризация регрессионных моделей путем логарифмических преобразований.
Для оценки параметров нелинейных моделей , как правило, используют линеаризацию модели , которая заключается в том, что с помощью подходящих преобразований исходных переменных исследуемую зависимость представляют в виде линейного соотношения между преобразованными переменными. Если не удается подобрать соответствующее линеаризующее преобразование, то применяют методы нелинейной оптимизации на основе исходных переменных.
Различают два класса нелинейных регрессионных моделей:
- модели, нелинейные относительно фактора, но линейные по параметрам;
- модели нелинейные по параметрам.
Модели, нелинейные относительно факторов, но линейные по параметрам. Введением новых переменных такую модель можно свести к линейной, для оценки параметров которой используется обычный метод наименьших квадратов.
Рассмотрим примеры линеаризующих преобразований:
1) Полиномиальная модель: y=a+b1x+b2x2+…+bpxp.
Соответствующая линейная модель : y=a+b1z1+b2z2+…+bpzp, где z1=x, z2=x2, …, zp=xp.
2) Гиперболическая модель : y=a+bx.
Соответствующая линейная модель : y=a+bz, где z=1x.
3) Логарифмическая модель : y=a+b∙lnx.
Соответствующая линейная модель : y=a+bz, где z=lnx.
Модели нелинейные по параметрам. Среди таких моделей выделяют нелинейные модели внутренне линейные и нелинейные модели , внутренне нелинейные. Модели внутренне линейные можно привести к линейному виду с помощью соответствующих преобразований .
Примеры внутренне линейных моделей и их линеаризация :
1) Мультипликативная степенная модель : y=ax1b1x2b2…xpbp.
Линеаризующее преобразование : lny=lna+b1lnx1+b2lnx2+…+bplnxp
Или Y=A+b1z1+b2z2+…+bpzp, где Y=lny, A=lna, z1=lnx1, z2=lnx2,…, zp=lnxp.
2) Экспоненциальная модель: y=ea+b1x1+b2x2+…+bpxp.
Линеаризующее преобразование: lny=a+b1x1+b2x2+…+bpxp.
3) Обратная регрессионная модель: y=ka+b1x1+b2x2+…+bpxp.
Линеаризующее преобразование: 1y=ak+b1kx1+b2kx2+…+bpkxp.