- •Оглавление
- •Тема 0. Введение (группа 3.3б) 4
- •Тема 1. Парная регрессия (группа 3.5а) 23
- •Тема 2. Множественная регрессия (группа 3.5б) 51
- •Тема 3. Нелинейная регрессия (группа 3.3а) 70
- •Тема 4. Системы регрессионных уравнений (группа 3.3б) 91
- •Тема 5. Прогнозирование временных рядов (группа 3.7ммэ) 102 Тема 0. Введение (группа 3.3б)
- •0.1. Эконометрика как наука.
- •0.2. История возникновения эконометрики
- •0.3.Элементы теории вероятности.
- •0.3.1. Вероятностные характеристики случайных переменных
- •0.3.2.Законы распределения:
- •0.3.3 Условное математическое ожидание
- •0.4. Элементы математической статистики
- •0.4.1.Оценивание «хороших» свойств оценок
- •1) Состоятельность оценок
- •2) Несмещенность оценок
- •3) Эффективность оценок
- •0.4.2. Проверка гипотез и интервальное оценивание
- •Тема 1. Парная регрессия (группа 3.5а)
- •1.1 Определение линейной однофакторной регрессии.
- •1.1.1.Основные понятия регрессионного анализа
- •1.1.2. Линейная однофакторная регрессия
- •1.1.3. Матричная запись линейной регрессии
- •1.1.4 Оценки параметров регрессии
- •1.1.5 Смысл коэффициента регрессии
- •1.2 Проверка адекватности ру
- •1.2.1 Показатели качества подгонки
- •1.2.2.Проверка гипотез относительно параметров ру
- •1.3 Предпосылки мнк (ls)
- •1.3.1. Общие положения мнк
- •1.3.2. Выполнение первой предпосылки мнк (случайный характер остатков)
- •1.3.4. Выполнение третьей предпосылки мнк (гомоскедастичность остатков)
- •1.3.5 Выполнение 4-го условия мнк (отсутствие автокорреляции остатков)
- •1.3.6 Выполнение 5-го условия мнк (нормальность остатков)
- •1.4. Устранение нарушения предпосылок мнк для оценки парной регрессии
- •1.4.1. Автокорреляция остатков
- •1.4.2.Гетероскедастичность остатков и избавление от нее
- •1 Подход: преобразование исходных данных
- •2 Подход: применение другого метода оценивания коэф-ов регрессии.
- •3 Подход) включение дисперсии в модель
- •1.4.3. Метод максимального правдоподобия.
- •Тема 2. Множественная регрессия (группа 3.5б)
- •2.1 Множественная линейная регрессия
- •2.1.1. Основные понятия
- •2.1.2. Методы оценивания коэффициентов линейной многофакторной регрессии.
- •2.2.Проверка адекватности уравнений линейной множественной регрессии
- •2.2.1. Проверка качества подборки мнк.
- •3) Коэффициент эластичности
- •2.2.2.Проверка гипотез для млр
- •2.2.3. Допущение выполнения мнк или получение «хороших» оценок
- •2.3. Мультиколлинеарность факторов
- •2.3.1. Обнаружение мультиколлинеарности
- •2.3.2 Избавление от мультиколлинеарности. Метод главных компонент
- •2.4.Учет качественных факторов
- •2.4.1.Множественные переменные
- •2.4.2. Фиктивные переменные
- •2.4.3. Структурные изменения тенденций. Тест Чоу.
- •2.4.4. Модели бинарного выбора
- •Тема 3. Нелинейная регрессия (группа 3.3а)
- •3.1.Виды нелинейной зависимости
- •3.1.1.Основные понятия
- •3.1.2. Методы оценивания линеаризуемых функций:
- •3.1.3. Нелинеаризуемые функции и методы их оценки
- •1.Квазиньютоновский
- •2.Симплекс-метод
- •3.Метод Хука-Дживса
- •3.2.Проверка адекватности нелинейной регрессии
- •3.2.1. Показатели качества подгонки
- •3.2.2. Проверка гипотезы о значимости нелинейных моделей
- •3.2.3. Проверка выполнения условий для получения «хороших» оценок методом оценивания
- •3.3.Выбор типа зависимости
- •3.3.1. Теоретические предпосылки
- •3.3.2. Процедура Бокса – Кокса и тест Зарембеки
- •Тест Зарембеки
- •3.3.3.Производственные функции (пф)
- •3.3.4. Коэффициент эластичности
- •3.4.Спецификация и прогноз регрессионных уравнений
- •3.4.1. Информационные критерии (критерий Акайке, Шварца)
- •3.4.2. Ложная регрессия
- •3.4.3. Прогноз по регрессионным моделям. Доверительный интервал.
- •3.4.4. Применение регрессионного анализа в хеджировании
- •Тема 4. Системы регрессионных уравнений (группа 3.3б)
- •4.1.Понятие и виды сру
- •4.1.1. Система независимых уравнений
- •4.1.2. Системы рекурсивных уравнений
- •4.2. Структурный и приведенный виды сру
- •4.3 Идентификация модели
- •4.4 Оценка параметров сру
- •4.4.1.Кмнк.
- •4.4.2.Дмнк.
- •4.4.3.Тмнк.
- •Тема 5. Прогнозирование временных рядов (группа 3.7ммэ)
3.3.4. Коэффициент эластичности
Определение 3.3. Коэффициенты эластичности для нелинейной регрессии характеризуют, на сколько процентов приблизительно изменится зависимая переменная при изменении независимого фактора на 1%.
(3.14)
Определение 3.4. Средний коэффициент эластичности характеризует процентное изменение зависимой переменной y относительно своего среднего значения при изменении независимого фактора xi на 1% относительно своего среднего значения .
(3.15), где
- значение зависимой переменной при среднем значении фактора xi
Для производственной функции коэффициентом эластичности назвается эластичность выпуска по i-му ресурсу и определяется как отношение предельной производительности Mi i-го ресурса к его средне производительности Ai: (3.16)
Определение 3.5. Совокупность частных коэффициентов эластичности производственной функции называется эластичностью производства Эx=Э1+Э2+…+Эk (3.17)
В экономических исследованиях широкое применение находит такой показатель, как коэффициент эластичности. Если зависимость между переменными x и y имеет вид y=f(x), то коэффициент эластичности Э вычисляется по формуле
Э= f′(x)
Коэффициент эластичности Э показывает, на сколько процентов в среднем изменится результативный признак у при изменении фактора х на 1 % от своего номинального значения. Для линейной регрессии y=a+b∙x коэффициент эластичности равен
Э=b
Коэффициент эластичности Э в общем случае зависит от величины x и является величиной переменной. Чтобы исключить эту зависимость применяется средний коэффициент эластичности
=f′(x) =b
который уже является величиной постоянной.
Средний коэффициент эластичности показывает, на сколько процентов в среднем по совокупности значений фактора х изменится результативный признак упри изменении фактора х на 1 %.
Для степенной регрессии y=a∙xb коэффициент эластичности равен b и является величиной постоянной. Отсюда следует интерпретация параметра b в уравнении степенной регрессии: параметр b показывает, на сколько процентов изменится результативный признак у при изменении фактора х на 1 %.
3.4.Спецификация и прогноз регрессионных уравнений
3.4.1. Информационные критерии (критерий Акайке, Шварца)
Определение 4.1. Спецификация подели – оптимальность ее выбора, т.е. соответствие исходным данным.
Анализ правильности спецификации играет важную роль в экономических исследованиях и прогнозах.
Под спецификацией модели следует также понимать правильный выбор набора объясняющих переменных (независимых факторов).
В случае, когда в модель не включена существенная переменная, могут быть следующие последствия:
1) Исчезают возможности, верно, оценить и интерпретировать уравнение.
2) Коэффициенты при оставшихся переменных становятся смещенными.
3) Стандартные ошибки коэффициентов и t-статистики некорректны, следовательно, не могут быть использованы для суждения о качестве подгонки предлагаемой модели.
В случае если включена линейная переменная, то это обстоятельство ведет к увеличению стандартных ошибок и, как следствие, к статистической незначимости оценок.
Существуют информационные критерии, позволяющие выбирать из множества моделей наилучшую, т.е. производить спецификацию.
Наиболее часто применяют критерии Акайке, Шварца.
Критерий Акайке рассчитывается по формуле:
(4.1), где
- выборочная дисперсия остатков,
k- число ограничений на стационарность
Критерий Шварца:
При сравнении множества моделей по информационным критериям выбираются модели, для которых значения AC и SC – минимальны.
Примечание: Особенно часто информационные критерии используются для полиномиальной регрессии, чтобы определить стационарность полинома.
При построении модели, адекватно описывающей изучаемый процесс в экономике, очень важную роль играет анализ правильности ее спецификации. Отрицательно на объясняющих свойствах модели сказывается как отсутствие значимой переменной, так и избыточное присутствие незначимой.
В случае, когда в модель не включена существенная переменная (существенной называют переменную, которая должна быть в модели согласно правильной теории), наблюдаются следующие последствия:
1.Исчезает возможность правильной оценки и интерпретации уравнений.
2.Коэффициенты при оставшихся переменных становятся смещенными.
3.Стандартные ошибки коэффициентов и t-статистики некорректны и не могут быть использованы для суждения о качестве подгонки предлагаемой модели.
Например, предположим, что из модели исключена переменная Х2. Тогда в новой спецификации фактически рассматривается модель , где .
Если объясняющие переменные Х1 и Х2 коррелированы, то нарушается предпосылка теоремы Гаусса-Маркова о некоррелированности случайного члена и регрессоров, поскольку в этом случае между Х1 и u существует ненулевая корреляция. Оценки, полученные по методу наименьших квадратов для данной модели, уже не являются эффективными среди линейных оценок.
Оценки даже не являются несмещенными, поскольку для МНК оценки коэффициента β1 в этом случае получаем: . Наблюдается смещение .
Включение несущественной переменной в модель не приводит к смещению оценок коэффициентов, но появляется другой недостаток – растут стандартные ошибки коэффициентов. Оценки становятся статистически незначимыми.
Если точная спецификация модели неизвестна (что практически всегда и бывает), то пользуются критериями, позволяющими выбирать из некоторого множества моделей наилучшую.
Наиболее распространенными критериями является критерий Шварца (Schwarz) и критерий Акайке (Akaike). Оба критерия позволяют выбирать наилучшую модель из множества различных спецификаций. Критерии численно построены так, чтобы учесть влияние на качество подгонки модели двух противоположных тенденций.
При добавлении переменных в модель качество подгонки в общем случае увеличивается. Заметим, что число регрессоров должно быть разумным, чтобы не вызвать "искусственной подгонки" зависимой переменной объясняющими. С другой стороны, недостаточное включение переменных в модель дает большую стандартную ошибку, и качество подгонки снижается.
Формулы для расчета критериев Akaike и Schwarz:
, ,
где - выборочная дисперсия, К – число ограничений на степени свободы. ЗначениеК в этом случае равно числу независимых переменных, включая свободный член. Таким образом, если в модели присутствует два регрессора и свободный член, то число ограничений на степени свободы будет равно трем.
Первое слагаемое представляет собой штраф за большую дисперсию, второе – штраф за использование дополнительных переменных. Критерии рассчитываются для каждой рассматриваемой спецификации. При сравнении двух типов моделей предпочтение отдается спецификации, которая имеет наименьшие значения критериев.