- •1. Анализ вариации зависимой переменной в регрессии
- •2. Тест Дарбина – Уотсона некоррелированности случайных возмущений в схеме Гаусса – Маркова
- •3. Метод имитационного моделирования. Исследование последствий нарушения условий теоремы Гаусса – Маркова
- •4. Анализ вариации зависимой переменной в регрессии
- •5. Коэффициент детерминации как мера качества спецификации эконометрической модели
- •6. Компьютерное моделирование эконометрических систем
- •8. Процедура точечного прогнозирования по оцененной линейной эконометрической модели парной регрессии значений эндогенной переменной
- •9. Интервальное прогнозирование по оцененной линейной эконометрической модели парной регрессии значений эндогенной переменной
- •10. Множественная линейная регрессионная модель. Оценивание параметров множественной регрессии методом наименьших квадратов
- •11. Определение границ доверительных интервалов точечных оценок множественной регрессионной модели
- •12. Оценивание параметров модели взвешенным методом наименьших квадратов
- •13. Модель Марковица
- •14. Определение границ доверительного интервала прогноза зависимой переменной
- •15. Проверка гипотез относительно коэффициентов парной регрессии
- •16. Автокорреляция случайного возмущения
- •17. Гетероскедастичность случайного возмущения
- •18. Система нормальных уравнений и явный вид ее решения при оценивании методом наименьших квадратов линейной модели множественной регрессии
- •19. Модель парной регрессии. Границы доверительных интервалов
- •20. Гетероскедастичность случайной компоненты. Тесты на наличие гетероскедастичности
- •21. Автокорреляция случайной составляющей. Тесты на наличие автокорреляции
- •22. Спецификация и преобразование к приведенной форме динамических моделей. Лаговые и предопределенные переменные динамической модели
- •23. Уточнение эконометрических моделей путем датирования переменных
- •24. Парная регрессия. Оценивание параметров методом наименьших квадратов
- •25. Тест Голдфелда–Квандта гомоскедастичности случайных возмущений в схеме Гаусса – Маркова
- •26. Дисперсионный анализ в парной регрессии
26. Дисперсионный анализ в парной регрессии
Линейная парная регрессионная модель используется для описания взаимосвязи двух переменных Y и X, если имеется предположения, что между ними существует линейная стохастическая зависимость:
y=a+bx+ε,
где а и b – параметры модели (постоянные неизвестные коэффициенты); Х- независимая переменная; Y— зависимая переменная; ε - случайная переменная (возмущение, ошибка), возникающая из-за влияния различных неучтенных факторов.
Уравнение для отдельных наблюдений зависимой переменной Y записывается в виде:
yt=a+bxt+εt
где Хt Yt, - набор данных (наблюдений), t = 1, 2,..., n; Xt – экзогенная переменная модели); εt - случайная ошибка в наблюдении t.
Если отклонение зависимой переменной Yt, от ее выборочного среднего значения представить в виде суммы двух отклонений:
и выборочную дисперсию var(Y) можно представить в виде двух частей:
Часто это уравнение записывают так:
TSS = ESS + RSS,
где TSS = var(Y) – полная дисперсия (общая сумма квадратов отклонений зависимой переменной от ее выборочного значения);
ESS = Σ(Yt-Ŷt)2 – часть дисперсии, необъясненная регрессией (т.к. она содержит ошибки регрессии εt);
- часть дисперсии, объясненная регрессией (объясненная сумма квадратов отклонений).
Качество подгонки регрессионной модели к наблюденным значениям Yt оценивается при помощи статистики R2 (коэффициента детерминации).
Коэффициент детерминации определяется по формуле
R2 = 1-ESS / TSS = RSS / TSS; 0≤R2≤1
Часто это уравнение записывают так:
TSS = ESS + RSS,
где TSS = var(Y) – полная дисперсия (общая сумма квадратов отклонений зависимой переменной от ее выборочного значения);
ESS = Σ(Yt-Ŷt)2 – часть дисперсии, необъясненная регрессией (т.к. она содержит ошибки регрессии εt);
- часть дисперсии, объясненная регрессией (объясненная сумма квадратов отклонений).
Качество подгонки регрессионной модели к наблюденным значениям Yt оценивается при помощи статистики R2 (коэффициента детерминации).
Коэффициент детерминации определяется по формуле
R2 = 1-ESS / TSS = RSS / TSS; 0≤R2≤1
Чем ближе значение коэффициента детерминации к 1, тем лучше качество подгонки и прогноз Ŷ более точно аппроксимирует Y.
Для проверки значимости коэффициента детерминации используется F-статистика:
где k - число независимых переменных.
Связь между статистиками F и R2 для случая парной регрессии (k = 1) имеет вид