- •Эконометрического моделирования План лекции
- •Введение
- •1.Предмет, цель и задачи эконометрики.
- •2.Этапы становления эконометрики
- •3. Введение в эконометрическое моделирование
- •4. Основные математические предпосылки эконометрического моделирования
- •5. Основные этапы и проблемы эконометрического моделирования
- •Контрольные вопросы:
- •Тема 2. Парная линейная регрессия и корреляция План лекции
- •Введение
- •1. Модель линейной парной регрессии. Метод наименьших квадратов
- •2. Коэффициент корреляции
- •3. Основные положения регрессионного анализа. Теорема Гаусса – Маркова
- •4. Оценка значимости уравнения регрессии. Коэффициент детерминации
- •5. Построение интервальных прогнозов по модели парной регрессии
- •Контрольные вопросы:
- •Тема 3. Множественный регрессионный анализ План лекции
- •Введение
- •1. Классическая нормальная линейная модель множественной регрессии
- •2. Оценка параметров классической регрессионной модели методом наименьших квадратов
- •3. Предпосылки для множественного регрессионного анализа.
- •Теорема Гаусса-Маркова.
- •4. Стандартизированное уравнение линейной множественной регрессии
- •Контрольные вопросы:
- •Тема 4. Множественная корреляция План лекции
- •Введение
- •1. Множественная линейная корреляционная зависимость
- •2. Частные коэффициенты корреляции
- •3. Коэффициент множественной корреляции
- •4. Отбор факторов в случае линейной множественной регрессии
- •Контрольные вопросы:
- •Тема 5. Линейные регрессионные модели
- •1. Суть гетероскедастичности, ее последствия
- •2. Тесты, позволяющие выявить наличие гетероскедастичности остатков
- •3. Устранение гетероскедастичности
- •4. Автокорреляция остатков, ее последствия. Обнаружение автокорреляции остатков
- •Контрольные вопросы:
- •Тема 6. Линейные регрессионные модели
- •1. Фиктивные переменные
- •2. Модели регрессии с фиктивными переменными сдвига
- •3. Модели регрессии с фиктивными переменными наклона
- •4. Критерий г. Чоу
- •Контрольные вопросы:
- •Тема 7. Модели временных рядов План лекции
- •Введение
- •1. Понятие временного ряда. Общий вид модели временного ряда
- •2. Проверка гипотезы существования тенденции
- •3. Стационарные временные ряды и их характеристики. Автокорреляционная функция
- •Авторегрессия первого порядка. Тест Дарбина-Уотсона
- •4. Аналитическое выравнивание (сглаживание) временного ряда
- •6. Процесс построения аддитивной модели временного ряда
- •7. Прогнозирование на основе моделей временного ряда
- •8. Понятие об авторегрессионных моделях и моделях скользящей средней
- •Контрольные вопросы:
- •Тема 8: модели с лаговыми переменными План лекции
- •Введение
- •1. Модели с распределенными лагами
- •2. Модели авторегрессии
- •3. Авторегрессионные модели и их моделирование
- •Контрольные вопросы:
- •Тема 9. Системы линейных одновременных уравнений План лекции
- •Введение
- •1. Структурная и приведенная формы моделей
- •2. Проблема идентификации
- •Матрица коэффициентов (1)
- •Матрица коэффициентов (2)
- •Матрица коэффициентов (3)
- •3. Оценивание параметров структурной модели
- •Условные данные по пяти регионам
- •Контрольные вопросы:
- •Используемая литература
1. Классическая нормальная линейная модель множественной регрессии
Обозначим: i-ое наблюдение зависимой переменной – уi, а объясняющих переменных – xi1, xi2, … , xip. Тогда модель множественной линейной регрессии можно представить в виде:
(3.1)
– объем выборки;
удовлетворяет предпосылкам регрессионного анализа:
– случайная величина, а объясняющие переменные – неслучайные величины;
;
– постоянная для любого i (условие гомоскедастичности);
, ;
Возмущение есть нормально распределенная случайная величина.
Определение:
Модель (3.1), в которой зависимая переменная уi , возмущения и объясняющие переменные удовлетворяют предпосылкам регрессионного анализа и, кроме того, предпосылке о невырожденности матрицы значений объясняющих переменных (независимых столбцов) называется классической нормальной линейной моделью множественной регрессии.
Перейдем к матричному описанию регрессий (это облегчает расчеты).
Введем обозначения:
– матрица-столбец, или вектор значений зависимой переменной размера n; – матрица значений объясняющих переменных, или матрица плана (размера ). В матрицу дополнительно введен столбец, все элементы которого равны 1, т.е. условно предполагается, что в модели (3.1) свободный член умножается на фиктивную переменную , принимающую значение 1 для всех i: ;
– матрица-столбец, или вектор параметров размера ;
– матрица-столбец, или вектор возмущений (случайных ошибок, остатков) размера n.
Тогда в матричной форме модель (3.1) примет вид:
. (3.2)
Оценкой этой модели по выборке является уравнение
, (3.3)
где b(p + 1) 1 , ,
2. Оценка параметров классической регрессионной модели методом наименьших квадратов
Для оценки вектора неизвестных параметров применим метод наименьших квадратов. Так как произведение транспонированной матрицы на саму матрицу
,
то условие минимизации остаточной суммы квадратов запишется в виде:
.
Учитывая, что при транспонировании произведения матриц получается произведение транспонированных матриц, взятых в обратном порядке, т.е. , после раскрытия скобок получим:
Произведение есть матрица размерности , т.е. величина скалярная, следовательно, оно не меняется при транспонировании, т.е.
Поэтому условие минимизации примет вид:
На основании необходимого условия экстремума функции нескольких переменных S , необходимо приравнять к нулю частные производные по этим переменным или в матричной форме – вектор частных производных должен быть ноль-вектором , т.е. .
Известно (из алгебры матриц) для векторов: , , .
.
, где – симметрическая матрица, в которой элементы, расположенные симметрично главной диагонали, равны.
Поэтому, полагая , а матрица (она является симметрической), найдем
,
откуда получаем систему нормальных уравнений в матричной форме для определения вектора :
. (3.4)
Найдем матрицы, входящие в это уравнение.
Матрица есть вектор произведений n наблюдений объясняющих и зависимой переменных:
(3.5)
При получим систему нормальных уравнений:
Для решения системы (3.5) или матричного уравнения (3.4) нужна еще одна предпосылка: - невырожденная матрица, т.е. . Тогда решение имеет вид:
. (3.6)
В модели (3.2) - случайный вектор, Х – неслучайная матрица.