- •П.Я. Бушин
- •Введение
- •Глава 1. Парная линейная регрессия и корреляция
- •1.1. Обычный метод наименьших квадратов (мнк) и его предпосылки
- •1.2. Оценки точности уравнения регрессии и его параметров
- •1.2.1. Стандартная ошибка оценки по регрессии
- •1.2.3. Интервальные оценки параметров уравнения регрессии
- •1.2.4. Проверка значимости параметров уравнения регрессии
- •1.2.7. Коэффициент ранговой корреляции Спирмена
- •1.3. Спецификация уравнения регрессии
- •0 1,22 1,42 2,58 2,78 4
- •1.4. Нелинейная корреляция и регрессия
- •1.4.2. Индекс корреляции
- •Глава 2. Множественная корреляция и регрессия
- •2.1. Множественный корреляционный анализ
- •2.1.1. Анализ матрицы парных коэффициентов корреляции
- •2.1.2. Частная и множественная корреляция
- •2.2. Линейная модель множественной регрессии
- •2.2.1. Уравнение множественной регрессии в натуральном масштабе
- •2.2.2.Стандартизованное уравнение множественной регрессии
- •2.2.3. Оценки точности уравнения множественной регрессии
- •2.2.4. Анализ остатков уравнения множественной регрессии на втокорреляцию
- •2.2.5. Пошаговый выбор переменных
- •0 0,9 1,83 2,17 3,1 4
- •2.3. Особые случаи использования мнк во множественной регрессии
- •2.3.1. Оценка параметров уравнения множественной регрессии в условиях мультиколлинеарности (пошаговый регрессионный анализ)
- •2.3.2. Оценка параметров уравнения множественной регрессии с автокоррелированными остатками
- •2.3.3. Оценка уравнения множественной регрессии с гетероскедастичными остатками (обобщенный мнк)
- •2.3.4. Регрессионные модели с переменной структурой (фиктивные переменные)
- •Глава 3. Анализ временных рядов
- •3.1. Характеристики временных рядов
- •3.2. Показатели точности прогноза
- •3.3. Анализ автокорреляций
- •3.4. Модели стационарных временных рядов
- •3.5. Модели нестационарных временных рядов
- •3.5.1. Прогноз по тренду
- •3.5.2. Прогнозирование на основе сезонной компоненты (сезонная декомпозиция временного ряда)
- •3.5.3. Прогноз по экспоненциально взвешенным скользящим средним (адаптивные методы прогнозирования)
- •Поквартальные данные продажи учебников
- •Расчет прогноза с учетом сезонной компоненты
- •Глава 4. Система одновременных эконометрических уравнений
- •4.1. Общие понятия о системах одновременных уравнений
- •4.2. Косвенный метод наименьших квадратов
- •4.3. Проблемы идентифицируемости
- •Библиографический список
- •Оглавление
- •Глава 1. Парная линейная регрессия и корреляция………………………………………4
- •Глава 2. Множественная корреляция и регрессия………………………………………..23
- •Глава 3. Анализ временных рядов………………………………………………………….58
- •Пример. Моделирование сезонной компоненты на основе
- •Учебное издание Павел Яковлевич Бушин эконометрика
2.2. Линейная модель множественной регрессии
Если в регрессионном анализе рассматривается пара переменных (одна зависимая, одна независимая), то говорят о парной или простой регрессии. Если независимых переменных более одной, то говорят о множественной регрессии.
2.2.1. Уравнение множественной регрессии в натуральном масштабе
Здесь будем рассматривать только линейнуюрегрессию. Пусть рассматривается совокупность переменныхy, x1, x2, … , xm, причем, будем считать, чтоy– зависимая переменная, аx1, x2, … , xm – независимые. Для этих переменных модель множественной линейной регрессии имеет вид:
y = α + x1 + x2 + … +хm + ε,
где α, ,, … ,– параметры уравнения регрессии;
ε – случайная величина, характеризующая отклонение фактических значений зависимой переменной от функции регрессии.
Уравнение множественной линейной регрессии (как оценка модели) может быть записано в виде:
y = a + b1x1 + b2x2 + …+ bmxm + е,
где а –оценка свободного члена уравнения регрессии;
bk–оценки коэффициентов регрессии при переменныхxk (k= );
е–отклонения фактических значений зависимой переменной от расчетных (оценки значений случайной величиныε).
Здесь отличия εи е такие же, как и в случае парной регрессии. Если расчетные значения обозначить через, то
= a+b1x1+b2x2+ … +bmxm .
Тогда имеем: y = + еили е = y –.
Отметим еще раз, что а и bk(k= ) не параметры уравнения регрессии, а их оценки, получаемые обычно на основе метода наименьших квадратов (МНК). Суть МНК для множественной регрессии, как и в случае парной регрессии, состоит в определении оценок параметров уравнения регрессии (свободного члена и коэффициентов регрессии) из условия минимизации суммы квадратов отклонений:
min.
Предпосылки метода наименьших квадратов в случае множественной регрессии в основном те же, что и в случае парной регрессии. Но есть и особенности.
Предпосылка о гомоскедастичности остатков в случае множественной регрессии означает их независимость от значений объясняющих переменных.
Предпосылка о неслучайности независимой переменной для парной регрессии в случае множественной регрессии трансформируется в предпосылку о детерминированности (неслучайности) независимых переменных. А это, в свою очередь, предполагает некоррелированность объясняющих переменных и остатков. Кроме того, ранг матрицы значений исходных данных для независимых переменных должен быть максимальным и равным размерности модели – (m+1). Это связано с тем, что в случае множественной регрессии оценки параметров уравнения рассчитываются с использованием обратной матрицы (ХТХ)-1, а именно,
= (XTX)-1(XTY),
где= (a,b1,b2,…,bm)T– матрица-столбец оценок параметров уравнения регрессии;
X– матрица значений независимых переменных, знак “Т” означает транспонирование матрицы (замена строк столбцами);
Y–матрица-столбец значений зависимой переменной.
При выполнении предпосылок МНК оценки параметров уравнения регрессии будут “хорошими”. Как и в случае парной регрессии, предпосылка о нормальном законе распределения остатков нужна лишь для правомерности использования характеристик точности МНК-оценок.
Параллельно с оценкой параметров уравнения регрессии необходимо получить оценку дисперсии ε, а следовательно, и дисперсииу.Можно показать, что несмещенной оценкой дисперсииεявляется выборочная остаточная дисперсия, определяемая по формуле
Свободный член уравнения регрессии обычно не интерпретируется.
Коэффициенты уравнения множественной регрессии при каждой переменной показывают, на сколько в среднем изменится значение зависимой переменной (в своих единицах измерения), если значение соответствующей независимой переменной изменится на единицу (в своих единицах измерения) при фиксированных значениях других переменных. Но это верно лишь в том случае, если выполняется предпосылка регрессионного анализа о том, что факторные переменные не зависят между собой (только в этом случае можно изменить значение одной переменной, оставив без изменения другие). В случае же существования взаимозависимости объясняющих переменных смысл коэффициентов уравнения регрессии искажается. А в случае их мультиколлинеарности коэффициенты уравнения регрессии вообще теряют какой-либо смысл.