- •Эконометрическая модель.
- •Измерения в экономике. Шкалы измерений.
- •Случайные события и случайные переменные. Распределение случайных величин.
- •Статистические характеристики случайных величин и их свойства.
- •Основные функции распределения.
- •Оценки статистических характеристик и их желательные свойства.
- •Проверка статистических гипотез.
- •Критерий и критическая область.
- •Мощность статистического критерия. Уровень значимости.
- •Модель линейной регрессии.
- •Оценивание параметров регрессии. Метод наименьших квадратов.
- •Система нормальных уравнений мнк и ее решение.
- •Свойства оценок параметров, полученных методом наименьших квадратов. Условия Гаусса – Маркова.
- •Коэффициент детерминации и его свойства.
- •Предположение о нормальном распределении случайной ошибки в рамках классической линейной регрессии и его следствия.
- •Доверительные интервалы оценок параметров и проверка гипотез об их значимости.
- •Прогнозирование по регрессионной модели и его точность. Доверительные и интервалы прогноза.
- •Ковариационная матрица оценок коэффициентов регрессии.
- •Проверка значимости коэффициентов и адекватности регрессии для множественной линейной регрессионной модели.
- •Коэффициент множественной детерминации. Скорректированный коэффициент детерминации.
- •Проблемы спецификации регрессионной модели. Пошаговая регрессия.
- •Проблема смещения Предположим, что переменная у зависит от двух переменных х1, и х2 в соответствии с соотношением:
- •Неприменимость статистических тестов
- •Замещающие переменные. Фиктивные переменные.
- •Мультиколлинеарность. Влияние мультиколлинеарности на оценки параметров уравнения регрессии.
- •Методы борьбы с мультиколлинеарностью.
- •Линеаризация регрессионных моделей путем логарифмических преобразований.
- •Модели с постоянной эластичностью. Производственная функция Кобба - Дугласа.
- •Модель с постоянными темпами роста (полулогарифмическая модель).
- •Полиномиальная регрессия.
- •Кривая Филипса
- •Гетероскедастичность. Последствия гетероскедастичности для оценок параметров регрессии методом наименьших квадратов и проверки статистических гипотез.
- •Признаки гетероскедастичности и ее диагностирование. Обнаружение гетероскедастичности
- •1. Графический анализ остатков
- •2. Тест ранговой корреляции Спирмена
- •3. Тест Голдфелда-Квандта
- •Оценивание коэффициентов множественной линейной регрессии в условиях гетероскедастичности. Обобщенный метод наименьших квадратов.
- •Автокорреляция. Причины автокорреляции.
- •Влияние автокорреляции на свойства оценок мнк.
- •Тест серий. Статистика Дарбина – Уотсона.
- •Способы противодействия автокорреляции.
- •Стохастические объясняющие переменные. Последствия ошибок измерения.
- •Инструментальные переменные.
- •Лаговые переменные и экономические зависимости между разновременными значениями переменных.
- •Модели с распределенными лагами.
- •Модели авторегрессии как эквивалентное представление моделей с распределенными лагами.
- •Ожидания экономических агентов и лаговые переменные в моделях
- •Модели наивных и адаптивных ожиданий.
- •Модель гиперинфляции Кейгана.
- •44. Модель гиперинфляции Кейгана
- •Понятие об одновременных уравнениях. Структурная и приведенная форма модели.
- •Структурная и приведённая форма. Идентифицируемость
- •Примеры
- •Проблема идентификации. Неидентифицируемость и сверхидентифицированность.
- •Оценивание системы одновременных уравнений. Косвенный и двухшаговый мнк.
- •Системы эконометрических уравнений с лаговыми переменными.
- •Модель Кейнса.
- •Модель Клейна.
- •Матричная форма записи модели Клейна
Линеаризация регрессионных моделей путем логарифмических преобразований.
Соотношение между социально-экономическими явлениями и процессами далеко не всегда можно выразить линейными моделями, т.к. при этом могут возникнуть недопустимые ошибки. Нелинейными оказываются производственные функции, функции спроса и т.д.
Для оценки параметров нелинейных моделей, как правило, используют линеаризацию модели, которая заключается в том, что с помощью подходящих преобразований исходных переменных исследуемую зависимость представляют в виде линейного соотношения между преобразованными переменными. Если не удается подобрать соответствующее линеаризующее преобразование, то применяют методы нелинейной оптимизации на основе исходных переменных.
Различают два класса нелинейных регрессионных моделей:
- модели, нелинейные относительно фактора, но линейные по параметрам;
- модели нелинейные по параметрам.
Модели, нелинейные относительно факторов, но линейные по параметрам. Введением новых переменных такую модель можно свести к линейной, для оценки параметров которой используется обычный метод наименьших квадратов.
Рассмотрим примеры линеаризующих преобразований:
1) Полиномиальная модель: .
Соответствующая линейная модель: , где .
2) Гиперболическая модель: .
Соответствующая линейная модель: , где .
3) Логарифмическая модель: .
Соответствующая линейная модель: , где .
Следует отметить и недостаток такой замены переменных, связанный с тем, что вектор оценок получается не из условия минимизации суммы квадратов отклонений для исходных переменных, а из условия минимизации суммы квадратов отклонений для преобразованных переменных, что не одно и то же.
Полиномами второго порядка описывается зависимость урожайности от количества внесенных удобрений. Гиперболическая модель может быть использована для характеристики связей между нормой безработицы и процентом прироста заработной платы (кривая Филлипса). Логарифмическая модель может быть использована для описания доли расходов на товары длительного пользования (кривая Энгеля) в зависимости от общих сумм расходов.
Модели нелинейные по параметрам. Среди таких моделей выделяют нелинейные модели внутренне линейные и нелинейные модели, внутренне нелинейные. Модели внутренне линейные можно привести к линейному виду с помощью соответствующих преобразований.
Примеры внутренне линейных моделей и их линеаризация:
1) Мультипликативная степенная модель: .
Линеаризующее преобразование:
или
,
где .
2) Экспоненциальная модель: .
Линеаризующее преобразование: .
3) Обратная регрессионная модель: .
Линеаризующее преобразование: .
К моделям, полученным после проведения линеаризующих преобразований можно применять обычные методы исследования линейной регрессии. Но поскольку в них присутствуют не фактические значения изучаемого показателя, то оценки параметров получаются несколько смещенными. При анализе линеаризуемых функций регрессии, следует особенно тщательно проверять выполнение предпосылок метода наименьших квадратов.