![](/user_photo/2706_HbeT2.jpg)
- •Эконометрического моделирования План лекции
- •Введение
- •1.Предмет, цель и задачи эконометрики.
- •2.Этапы становления эконометрики
- •3. Введение в эконометрическое моделирование
- •4. Основные математические предпосылки эконометрического моделирования
- •5. Основные этапы и проблемы эконометрического моделирования
- •Контрольные вопросы:
- •Тема 2. Парная линейная регрессия и корреляция План лекции
- •Введение
- •1. Модель линейной парной регрессии. Метод наименьших квадратов
- •2. Коэффициент корреляции
- •3. Основные положения регрессионного анализа. Теорема Гаусса – Маркова
- •4. Оценка значимости уравнения регрессии. Коэффициент детерминации
- •5. Построение интервальных прогнозов по модели парной регрессии
- •Контрольные вопросы:
- •Тема 3. Множественный регрессионный анализ План лекции
- •Введение
- •1. Классическая нормальная линейная модель множественной регрессии
- •2. Оценка параметров классической регрессионной модели методом наименьших квадратов
- •3. Предпосылки для множественного регрессионного анализа.
- •Теорема Гаусса-Маркова.
- •4. Стандартизированное уравнение линейной множественной регрессии
- •Контрольные вопросы:
- •Тема 4. Множественная корреляция План лекции
- •Введение
- •1. Множественная линейная корреляционная зависимость
- •2. Частные коэффициенты корреляции
- •3. Коэффициент множественной корреляции
- •4. Отбор факторов в случае линейной множественной регрессии
- •Контрольные вопросы:
- •Тема 5. Линейные регрессионные модели
- •1. Суть гетероскедастичности, ее последствия
- •2. Тесты, позволяющие выявить наличие гетероскедастичности остатков
- •3. Устранение гетероскедастичности
- •4. Автокорреляция остатков, ее последствия. Обнаружение автокорреляции остатков
- •Контрольные вопросы:
- •Тема 6. Линейные регрессионные модели
- •1. Фиктивные переменные
- •2. Модели регрессии с фиктивными переменными сдвига
- •3. Модели регрессии с фиктивными переменными наклона
- •4. Критерий г. Чоу
- •Контрольные вопросы:
- •Тема 7. Модели временных рядов План лекции
- •Введение
- •1. Понятие временного ряда. Общий вид модели временного ряда
- •2. Проверка гипотезы существования тенденции
- •3. Стационарные временные ряды и их характеристики. Автокорреляционная функция
- •Авторегрессия первого порядка. Тест Дарбина-Уотсона
- •4. Аналитическое выравнивание (сглаживание) временного ряда
- •6. Процесс построения аддитивной модели временного ряда
- •7. Прогнозирование на основе моделей временного ряда
- •8. Понятие об авторегрессионных моделях и моделях скользящей средней
- •Контрольные вопросы:
- •Тема 8: модели с лаговыми переменными План лекции
- •Введение
- •1. Модели с распределенными лагами
- •2. Модели авторегрессии
- •3. Авторегрессионные модели и их моделирование
- •Контрольные вопросы:
- •Тема 9. Системы линейных одновременных уравнений План лекции
- •Введение
- •1. Структурная и приведенная формы моделей
- •2. Проблема идентификации
- •Матрица коэффициентов (1)
- •Матрица коэффициентов (2)
- •Матрица коэффициентов (3)
- •3. Оценивание параметров структурной модели
- •Условные данные по пяти регионам
- •Контрольные вопросы:
- •Используемая литература
1. Классическая нормальная линейная модель множественной регрессии
Обозначим: i-ое наблюдение зависимой переменной – уi, а объясняющих переменных – xi1, xi2, … , xip. Тогда модель множественной линейной регрессии можно представить в виде:
(3.1)
– объем выборки;
удовлетворяет
предпосылкам регрессионного анализа:
– случайная величина, а объясняющие переменные – неслучайные величины;
;
– постоянная для любого i (условие гомоскедастичности);
,
;
Возмущение есть нормально распределенная случайная величина.
Определение:
Модель (3.1), в которой зависимая переменная уi , возмущения и объясняющие переменные удовлетворяют предпосылкам регрессионного анализа и, кроме того, предпосылке о невырожденности матрицы значений объясняющих переменных (независимых столбцов) называется классической нормальной линейной моделью множественной регрессии.
Перейдем к матричному описанию регрессий (это облегчает расчеты).
Введем обозначения:
– матрица-столбец,
или вектор значений зависимой переменной
размера n;
– матрица значений объясняющих
переменных, или матрица плана (размера
).
В матрицу
дополнительно введен столбец, все
элементы которого равны 1, т.е. условно
предполагается, что в модели (3.1) свободный
член
умножается на фиктивную переменную
,
принимающую значение 1 для всех i:
;
– матрица-столбец,
или вектор параметров размера
;
– матрица-столбец,
или вектор возмущений (случайных ошибок,
остатков) размера n.
Тогда в матричной форме модель (3.1) примет вид:
.
(3.2)
Оценкой этой модели по выборке является уравнение
,
(3.3)
где b(p
+ 1)
1
,
,
2. Оценка параметров классической регрессионной модели методом наименьших квадратов
Для оценки вектора
неизвестных параметров
применим
метод наименьших квадратов. Так как
произведение транспонированной матрицы
на саму матрицу
,
то условие минимизации остаточной суммы квадратов запишется в виде:
.
Учитывая, что при
транспонировании произведения матриц
получается произведение транспонированных
матриц, взятых в обратном порядке, т.е.
,
после раскрытия скобок получим:
Произведение
есть матрица размерности
,
т.е. величина скалярная, следовательно,
оно не меняется при транспонировании,
т.е.
Поэтому условие минимизации примет вид:
На основании
необходимого условия экстремума функции
нескольких переменных S
,
необходимо приравнять к нулю частные
производные по этим переменным
или в матричной форме – вектор частных
производных
должен быть ноль-вектором
,
т.е.
.
Известно (из алгебры
матриц) для векторов:
,
,
.
.
,
где
– симметрическая матрица, в которой
элементы, расположенные симметрично
главной диагонали, равны.
Поэтому, полагая
,
а матрица
(она является симметрической), найдем
,
откуда получаем систему нормальных уравнений в матричной форме для определения вектора :
.
(3.4)
Найдем матрицы, входящие в это уравнение.
Матрица
есть вектор произведений n
наблюдений объясняющих и зависимой
переменных:
(3.5)
При
получим систему нормальных уравнений:
Для решения системы
(3.5) или матричного уравнения (3.4) нужна
еще одна предпосылка:
- невырожденная матрица, т.е.
.
Тогда решение имеет вид:
.
(3.6)
В модели (3.2)
- случайный вектор, Х
– неслучайная матрица.