- •0.1. Эконометрика как наука.
- •0.2. История возникновения эконометрики
- •0.3.Элементы теории вероятности.
- •0.3.1. Вероятностные характеристики случайных переменных
- •0.3.2.Законы распределения:
- •0.3.3 Условное математическое ожидание
- •0.4.Элементы математич статистики
- •0.4.1.Оценивание «хороших» св-в оценок
- •1) Состоятельность оценок
- •2) Несмещенность оценок
- •3) Эффективность оценок
- •0.4.2. Проверка гипотез и интервальное оценивание
- •1.1 Определение линейной однофакторной регрессии.
- •1.1.1.Основные понятия регрессионного анализа
- •1.1.2. Линейная однофакторная регрессия
- •1.1.3. Матричная запись линейной регрессии
- •1.1.4 Оценки параметров регрессии
- •1.1.5 Смысл коэффициента регрессии
- •1.2 Проверка адекватности ру
- •1.2.1 Показатели качества подгонки
- •1.3 Предпосылки мнк (ls)
- •1.3.1. Общие положения мнк
- •1.3.2. Выполнение первой предпосылки мнк (случайный характер остатков)
- •1.3.5 Выполнение 4-го условия мнк (отсутствие автокорреляции остатков)
- •1.3.6 Выполнение 5-го условия мнк (нормальность остатков)
- •1.4. Устранение нарушения предпосылок мнк для оценки парной регрессии
- •1.3.4. Выполнение третьей предпосылки мнк (гомоскедастичность остатков)
- •1.4.1. Автокорреляция остатков
- •1.4.2.Гетероскедастичность остатков и избавление от нее
- •1 Подход: преобразование исходных данных
- •2 Подход: применение другого метода оценивания коэф-ов регрессии.
- •3 Подход) включение дисперсии в модель
- •1.4.3. Метод максимального правдоподобия.
- •2.1 Множественная линейная регрессия
- •2.1.1. Основные понятия
- •2.1.2. Методы оценивания коэффициентов линейной многофакторной регрессии.
- •2.2.Проверка адекватности уравнений линейной множественной регрессии
- •2.2.1. Проверка качества подборки мнк.
- •2.2.2.Проверка гипотез для млр
- •2.2.3. Допущение выполнения мнк или получение «хороших» оценок
- •2.3. Мультиколлинеарность факторов
- •2.3.1. Обнаружение мультиколлинеарности
- •2.3.2 Избавление от мультиколлинеарности. Метод главных компонент
- •2.4.Учет качественных факторов
- •2.4.1.Множественные переменные
- •2.4.2. Фиктивные переменные
- •2.4.3. Структурные изменения тенденций. Тест Чоу.
- •2.4.4. Модели бинарного выбора
- •3.1.Виды нелинейной зависимости
- •3.1.1.Основные понятия
- •3.1.2. Методы оценивания линеаризуемых функций:
- •3.2.Проверка адекватности нелинейной регрессии
- •3.2.1. Показатели качества подгонки
- •3.1.3. Нелинеаризуемые функции и методы их оценки
- •1 .Квазиньютоновский
- •2.Симплекс-метод
- •3.Метод Хука-Дживса
- •3.2.2. Проверка гипотезы о значимости нелинейных моделей
- •3.2.3. Проверка выполнения условий для получения «хороших» оценок методом оценивания
- •3.3.Выбор типа зависимости
- •3.3.1. Теоретические предпосылки
- •3.3.2. Процедура Бокса – Кокса и тест Зарембеки
- •Тест Зарембеки
- •3.3.3.Производственные функции (пф)
- •3.3.4. Коэффициент эластичности
- •3.4.Спецификация и прогноз регрессионных уравнений
- •3.4.1. Информационные критерии (критерий Акайке, Шварца)
- •3.4.2. Ложная регрессия
- •3.4.3. Прогноз по регрессионным моделям. Доверительный интервал.
- •3.4.4. Применение регрессионного анализа в хеджировании
- •4.1.Понятие и виды сру
- •4.1.1. Система независимых уравнений
- •4.1.2. Системы рекурсивных уравнений
- •4.2. Структурный и приведенный виды сру
- •4.3 Идентификация модели
- •4.4 Оценка параметров сру
- •4.4.1.Кмнк.
- •4.4.2.Дмнк.
- •4.4.3.Тмнк.
- •5.8.2 Доверительный интервал в прогнозах
- •5.8.3 Общая схема прогнозирования на основе временных рядов
- •5.1 Общие положения о временных рядах
- •§ 5.2.1. Модель Брауна
- •§ 5.2.2. Модель Хольта.
- •5.2.Адаптивные модели.
- •5.2.3. Модель Хольта-Уинтерса
- •5.4Оценка тренда
- •5.4.1Параметрические методы оценки тренда
- •5.4.2. Метод скользящих средних
- •5.5 Оценка сезонной компоненты.
- •Аддитивная сезонная модель:
- •5.5.1 Оценка сезонной компоненты с помощью тригонометрических функций.
- •5.5.2. Метод сезонных индексов.
- •5.5.3. Прогнозирование сезонной компоненты
- •5.6. Моделирование стационарных случайных процессов
- •5.6.1. Авторегрессионные модели
- •Процесс Юла
- •Моделирование стационарных процессов
- •5.6.3Модель скользящей средней.
- •5.6.4Модель арсс (аrма)
- •5.6.5 Модели ap проинтегрированного скользящего среднего (арпсс).
- •Спектральный анализ Фурье.
- •5.7Спектральная плотность случайного процесса.
- •Различные параметры спектров.
- •5.8Прогнозирование временных рядов.
- •5.8.1 Адекватность математических моделей временных рядов.
- •Параметрические
- •Непараметрические
- •5.7. Периодограмма и спектрограмма
- •5.6.2.Понятие автокорреляции и частная автокорреляция
- •Следствия автокорреляции остатков
2.2.1. Проверка качества подборки мнк.
Качество множественной регрессии проверяют на основе следующих критериев:
1) Остаточная дисперсия: чем меньше остаточная дисперсия, тем лучше качество подгонки.
(2.1.), где
yi – фактические значения зависимой переменной
– расчетные значения
n – количество наблюдений
p – количество факторов
2) Коэффициент детерминации
Введение в уравнение дополнительных факторов увеличивает коэффициент детерминации. Поэтому для многофакторной регрессии рассчитывают скорректированных коэффициент детерминации:
(2.2), где
n – количество наблюдений
p – количество факторов
3) Коэффициент эластичности
Есть возможность ранжирования факторов по силе влияния на y.
Количественно сравнить эту силу влияния можно, используя коэффициент эластичности
(2.3)
Например, для фактора x4:
Коэффициенты эластичности показывают, на сколько процентов от среднего значения изменится зависимая переменная y при увеличении переменной xi на 1%.
Метод наименьших квадратов — один из методов регрессионного анализа для оценки неизвестных величин по результатам измерений, содержащих случайные ошибки.
Метод наименьших квадратов применяется также для приближённого представления заданной функции другими (более простыми) функциями и часто оказывается полезным при обработке наблюдений.
Когда искомая величина может быть измерена непосредственно, как, например, длина отрезка или угол, то, для увеличения точности, измерение производится много раз, и за окончательный результат берут арифметическое среднее из всех отдельных измерений. Это правило арифметической середины основывается на соображениях теории вероятностей; легко показать, что сумма квадратов уклонений отдельных измерений от арифметической середины будет меньше, чем сумма квадратов уклонений отдельных измерений от какой бы то ни было другой величины. Само правило арифметической середины представляет, следовательно, простейший случай метода наименьших квадратов.
2.2.2.Проверка гипотез для млр
Сначала выдвигают гипотезу множественного уравнения в целом. Для этого рассчитывают F-статистику:
(2.4)
Находится Fтабл по таблице Фишера-Снедоллера со степенями свободы V1=p и V2=n-p-1.
Если Fрасч>Fтабл, то гипотезу отвергают с той вероятностью, для которой нашли значение Fтабл.
Особое значение для многофакторного уравнения имеет t-статистика. На её основе отбирают существенные факторы.
Для коэффициента регрессии рассчитывается его стандартная ошибка:
Далее для каждого фактора рассчитывается своя t-статистика
(2.5)
Существенность влияния j-го фактора (x) на результаты (y) проверяются на основе гипотезы о том, что bj = 0.
По таблице Стьюдента определяется tтабл со степенями свободы n-p-1. Если |tjрасч| > tтабл, то j-й фактор является существенным и гипотезу о том , что bj=0 отвергаем на заданном уровне доверия.
2.2.3. Допущение выполнения мнк или получение «хороших» оценок
Метод МНК дает хорошие оценки, когда:
1.
2.
3.Отсутствует автокорреляция остатков
4.Нормальность остатков
5.Независимость факторов между собой
2.3. Мультиколлинеарность факторов
2.3.1. Обнаружение мультиколлинеарности
Определение 3.1. Факторы коллинеарны, если между ними имеется связь, т.е. корреляция.
Определение 3.2. Явление мультипликативности – когда больше чем 2 фактора связаны между собой.
В случае мультиколлинеарности в первоначальном уравнении может быть дублирование, отсюда следует, что независимые факторы должны не зависеть.
О наличии мультиколлинеарности между независимыми факторами, как правило, судят по матрице попарных коэффициентов корреляции.
Считают, что 2 переменные явно коллинеарны, т.е. находятся между собой в линейной зависимости, если их rxixj>0,7. Неявная зависимость факторов: 0,5< rxixj <0,7 (судят, например, по тому, что связь между незначимыми переменными есть, если Fрасч большое, а t-статистики маленькое).
Включение в модель мультиколлинеарных факторов затрудняется по следующим причинам:
1.Сложно объяснить коэффициенты регрессии с экономической точки зрения, т.к. коррелированы и имеется дубляж переменных.
2.Оценки параметров регрессии не надежны, отсюда следует, что модель не пригодна для анализа и прогнозирования.
О наличии мултиколлинеарности в целом для модели можно судить на основе следующего критерия:
3.Высчитывают определитель матрицы корреляционных парных коэффициентов.
det Rxixj
y=b0+b1x1+b2x2+…+bkxk
(3.2)
Переменные Z1,k - главные компоненты.
Чем ближе det Rxixj к 1, тем меньше коллинеарность факторов.
1.Рассчитывается
(3.1)
где n – количество наблюдений
k – количество факторов
2.Определяется для степеней свободы
3.Если < , то имеет место мультиколлинеарность факторов.