- •0.1. Эконометрика как наука.
- •0.2. История возникновения эконометрики
- •0.3.Элементы теории вероятности.
- •0.3.1. Вероятностные характеристики случайных переменных
- •0.3.2.Законы распределения:
- •0.3.3 Условное математическое ожидание
- •0.4.Элементы математич статистики
- •0.4.1.Оценивание «хороших» св-в оценок
- •1) Состоятельность оценок
- •2) Несмещенность оценок
- •3) Эффективность оценок
- •0.4.2. Проверка гипотез и интервальное оценивание
- •1.1 Определение линейной однофакторной регрессии.
- •1.1.1.Основные понятия регрессионного анализа
- •1.1.2. Линейная однофакторная регрессия
- •1.1.3. Матричная запись линейной регрессии
- •1.1.4 Оценки параметров регрессии
- •1.1.5 Смысл коэффициента регрессии
- •1.2 Проверка адекватности ру
- •1.2.1 Показатели качества подгонки
- •1.3 Предпосылки мнк (ls)
- •1.3.1. Общие положения мнк
- •1.3.2. Выполнение первой предпосылки мнк (случайный характер остатков)
- •1.3.5 Выполнение 4-го условия мнк (отсутствие автокорреляции остатков)
- •1.3.6 Выполнение 5-го условия мнк (нормальность остатков)
- •1.4. Устранение нарушения предпосылок мнк для оценки парной регрессии
- •1.3.4. Выполнение третьей предпосылки мнк (гомоскедастичность остатков)
- •1.4.1. Автокорреляция остатков
- •1.4.2.Гетероскедастичность остатков и избавление от нее
- •1 Подход: преобразование исходных данных
- •2 Подход: применение другого метода оценивания коэф-ов регрессии.
- •3 Подход) включение дисперсии в модель
- •1.4.3. Метод максимального правдоподобия.
- •2.1 Множественная линейная регрессия
- •2.1.1. Основные понятия
- •2.1.2. Методы оценивания коэффициентов линейной многофакторной регрессии.
- •2.2.Проверка адекватности уравнений линейной множественной регрессии
- •2.2.1. Проверка качества подборки мнк.
- •2.2.2.Проверка гипотез для млр
- •2.2.3. Допущение выполнения мнк или получение «хороших» оценок
- •2.3. Мультиколлинеарность факторов
- •2.3.1. Обнаружение мультиколлинеарности
- •2.3.2 Избавление от мультиколлинеарности. Метод главных компонент
- •2.4.Учет качественных факторов
- •2.4.1.Множественные переменные
- •2.4.2. Фиктивные переменные
- •2.4.3. Структурные изменения тенденций. Тест Чоу.
- •2.4.4. Модели бинарного выбора
- •3.1.Виды нелинейной зависимости
- •3.1.1.Основные понятия
- •3.1.2. Методы оценивания линеаризуемых функций:
- •3.2.Проверка адекватности нелинейной регрессии
- •3.2.1. Показатели качества подгонки
- •3.1.3. Нелинеаризуемые функции и методы их оценки
- •1 .Квазиньютоновский
- •2.Симплекс-метод
- •3.Метод Хука-Дживса
- •3.2.2. Проверка гипотезы о значимости нелинейных моделей
- •3.2.3. Проверка выполнения условий для получения «хороших» оценок методом оценивания
- •3.3.Выбор типа зависимости
- •3.3.1. Теоретические предпосылки
- •3.3.2. Процедура Бокса – Кокса и тест Зарембеки
- •Тест Зарембеки
- •3.3.3.Производственные функции (пф)
- •3.3.4. Коэффициент эластичности
- •3.4.Спецификация и прогноз регрессионных уравнений
- •3.4.1. Информационные критерии (критерий Акайке, Шварца)
- •3.4.2. Ложная регрессия
- •3.4.3. Прогноз по регрессионным моделям. Доверительный интервал.
- •3.4.4. Применение регрессионного анализа в хеджировании
- •4.1.Понятие и виды сру
- •4.1.1. Система независимых уравнений
- •4.1.2. Системы рекурсивных уравнений
- •4.2. Структурный и приведенный виды сру
- •4.3 Идентификация модели
- •4.4 Оценка параметров сру
- •4.4.1.Кмнк.
- •4.4.2.Дмнк.
- •4.4.3.Тмнк.
- •5.8.2 Доверительный интервал в прогнозах
- •5.8.3 Общая схема прогнозирования на основе временных рядов
- •5.1 Общие положения о временных рядах
- •§ 5.2.1. Модель Брауна
- •§ 5.2.2. Модель Хольта.
- •5.2.Адаптивные модели.
- •5.2.3. Модель Хольта-Уинтерса
- •5.4Оценка тренда
- •5.4.1Параметрические методы оценки тренда
- •5.4.2. Метод скользящих средних
- •5.5 Оценка сезонной компоненты.
- •Аддитивная сезонная модель:
- •5.5.1 Оценка сезонной компоненты с помощью тригонометрических функций.
- •5.5.2. Метод сезонных индексов.
- •5.5.3. Прогнозирование сезонной компоненты
- •5.6. Моделирование стационарных случайных процессов
- •5.6.1. Авторегрессионные модели
- •Процесс Юла
- •Моделирование стационарных процессов
- •5.6.3Модель скользящей средней.
- •5.6.4Модель арсс (аrма)
- •5.6.5 Модели ap проинтегрированного скользящего среднего (арпсс).
- •Спектральный анализ Фурье.
- •5.7Спектральная плотность случайного процесса.
- •Различные параметры спектров.
- •5.8Прогнозирование временных рядов.
- •5.8.1 Адекватность математических моделей временных рядов.
- •Параметрические
- •Непараметрические
- •5.7. Периодограмма и спектрограмма
- •5.6.2.Понятие автокорреляции и частная автокорреляция
- •Следствия автокорреляции остатков
2.1 Множественная линейная регрессия
2.1.1. Основные понятия
Изменения экономических показателей, как правило, обусловлены большим количеством факторов. В этом случае применяют многофакторное уравнение регрессии. Общий вид:
где
у – зависимые переменные;
x1, …, xp – независимые переменные(объясняющие факторы).
Рассмотрим случай линейной многофакторной регрессии:
(1.1),где
у – зависимая переменная;
хj, ( ) – j-й фактор уравнения (1.1),
b0 – свободный член уравнения
bj – коэффициент регрессии при j-том факторе. Он показывает изменения зависимой переменной у с изменением соответствующего фактора на единицу при условии, что остальные факторы остаются неизменными (фиксированными).
εi – ошибки (случайная компонента)
В матричной форме многогранное регрессионное уравнение записывается так:
(1.2) где
у - случайная вероятность значимой переменной
X – матрица размерности
, где
→ i – параметр наблюдения
j – параметр фактора
;
2.1.2. Методы оценивания коэффициентов линейной многофакторной регрессии.
Коэффициенты регрессии многофакторной модели имеют следующий экономический смысл: прирост результата (y), приходящийся на единицу прироста j-го фактора при фиксированном значении других факторов.
В большинстве случаев компоненты множественной регрессии оцениваются с помощью МНК.
Для определения параметров множественной регрессии (1.1) с p факторами решают систему из (p+1) уравнений с (p+1) неизвестными.
Запишем минимизируемый функционал в матричной форме → min
Дифференцируя данный функционал по , получаем систему обычных линейных уравнений
Оценки вектора b (значения коэффициентов регрессии) находятся по формулам
, где
XT – транспонированная матрица
(XTX)-1 – обратная матрица к матрице XT*X
y = b0+b1x1+b2x2+ε – рассмотрим двухфакторное уравнение
→ min
Дифференцируем по b0, b1, b2
Разрешая систему относительно b0, b1, b2, получаем значения для определения коэффициентов b0, b1, b2.
Для оценки параметров уравнения множественной регрессий применяют метод наименьших квадратов (МНК). Для линейных уравнений y a b1x1b2x2 bmxm строится следующая система нормальных уравнений, решение которой позволяет получить оценки параметров регрессии:
Метод наименьших квадратов применим и к уравнению множественной регрессии в стандартизированном масштабе: ty=β1tx1 +β2tx2+…+βmtxm+ε
Применяя МНК к уравнению множественной регрессии в стандартизированном масштабе, получим систему нормальных уравнений вида.
Средние коэффициенты эластичности для линейной регрессии рассчитываются по формуле
которые показывают на сколько процентов в среднем изменится результат, при изменении соответствующего фактора на 1%. Средние показатели эластичности можно сравнивать друг с другом и соответственно ранжировать факторы по силе их воздействия на результат.
2.2.Проверка адекватности уравнений линейной множественной регрессии
1. схема. Проверка кач-ва подгонки ур-я.
2.проверка гепотез относ-но регрес-го ур-я и его коэф(Т и Фгипотезы).
3. проверка выполнения усл. Для получ хор. Оценок(5пунктов)
4. интерпритация получ. Рез-в регрессии