- •Учебно-методические материалы к изучению дисциплины «Эконометрика»
- •Введение
- •1 Эконометрика и математическая статистика
- •Особенности статистических данных. Источники информации
- •1.2. Выборочная ковариация и выборочная дисперсия
- •Потребительские расходы на бензин и его реальная цена в условных единицах
- •Расчет выборочной ковариации
- •1.3 Метод Монте-Карло
- •2. Метод наименьших квадратов
- •2.1. Модель парной регрессии
- •2.2. Регрессия по методу наименьших квадратов
- •2.3. Формулы для коэффициентов регрессии. Обязательные свойства линии регрессии. Недостатки метода наименьших квадратов
- •2.4. Объясненная и необъясненная дисперсия зависимой переменной. Коэффициент r2, его связь с коэффициентом корреляции
- •Расчетная таблица
- •3 Свойства коэффициентов регрессии
- •3.1 Теорема Гаусса - Маркова. Смысл условий теоремы
- •Расчеты значений y
- •Результаты оценки значений a и b
- •Результаты расчетов значений y
- •Результаты оценки значений a и b
- •3.2. Стандартные отклонения и стандартные ошибки коэффициентов регрессии
- •Результаты расчетов стандартных ошибок
- •Результаты расчетов
- •4. Проверка гипотез
- •4.1. Выбор нулевой и альтернативной гипотезы
- •4.2. Уровень значимости
- •4.3 Ошибки I и II рода, степени свободы критическое значение, доверительный интервал. Т-тест для коэффициентов регрессии
- •4. 4. Односторонние и двусторонние тесты
- •4.7. Связь между тестами
- •5. Нелинейная регрессия. Простейшие модели
- •5.1. Нелинейность по переменным и нелинейность по параметрам
- •Соотношение между ежегодным потреблением бананов и годовым доходом
- •5.2. Логарифмирование
- •5.3. Эластичность и ее моделирование
- •5.4 Случайный член как множитель
- •5.5. Тест Бокса – Кокса (решетчатый поиск). Подбор функции методом Зарембки
- •Регрессии расходов на питание и жилье
- •Результаты оценивания регрессий для расходов
- •Алгоритмы вычисления эконометрических показателей
- •Список рекомендуемых литературных источников
5.5. Тест Бокса – Кокса (решетчатый поиск). Подбор функции методом Зарембки
Возможность построения нелинейных моделей, как с помощью их приведения к линейному виду, так и путем использования нелинейной регрессии, значительно повышает универсальность регрессионного анализа, но и усложняет задачу исследователя. Нужно спросить себя, будете ли вы начинать с линейной зависимости или с нелинейной и если с последней, то какого типа.
Если вы ограничиваетесь парным регрессионным анализом, то можете построить график наблюдений y и x как диаграмму разброса, и это поможет вам принять решение. Часто несколько разных нелинейных функций приблизительно соответствует наблюдениям, если они лежат не некоторой кривой. Однако в случае множественного регрессионного анализа невозможно даже построить график.
При рассмотрении альтернативных моделей с одним и тем же определением зависимой переменной процедура выбора достаточно проста. Наиболее разумным является оценивание регрессии на основе всех постоянных функций, которые можно вообразить, и выбор функции, в наибольшей степени объясняющей изменения зависимой переменной. Если две или более функции подходят примерно одинаково, то вы должны представить результаты для каждой из них.
Из примера в разделе 5.1 видно, что линейная функция объясняет 64% дисперсии y, а гиперболическая функция (4.3) – 99%. В этом примере мы без колебаний выбираем последнюю. Однако если разные функциональные формы, то проблема выбора модели становится более сложной, так как нельзя непосредственно сравнить коэффициенты R2 или суммы квадратов отклонений. В частности – и это наиболее общий пример для данной проблемы, - нельзя сравнить эти статистики для линейного и логарифмического вариантов модели.
Значение log y значительно меньше соответствующих значений y, поэтому неудивительно, что остатки также значительно меньше. Величина R2, безразмерна, однако в двух уравнениях она относится разным понятиям. В одном уравнении она изменяет объясненную регрессией долю дисперсии y, а в другом – объясненную регрессией долю дисперсии log y. Если для одной модели коэффициент R2 значительно больше, чем для другой, то вы сможете сделать оправданный выбор без особых раздумий, однако, если значения R2 для двух моделей приблизительно равны, то проблема выбора существенно усложняется.
В этом случае следует использовать стандартную процедуру, известную под названием теста Бокса-Кокса (Box, Cox, 1964). Если вы хотите только сравнить модели с использованием y и log y в качестве зависимой переменной, то можно использовать вариант теста, разработанный Полом Зарембкой (Zarembka, 1968).
Метод Зарембки – процедура выбора между линейной и логарифмическими моделями.
Данный тест предполагает такое преобразование масштаба наблюдений y, при котором обеспечивалась бы возможность непосредственного сравнения суммы квадратов отклонений (СКО) в линейной и логарифмической моделях.
Метод Зарембки состоит из четырех шагов.
1) вычисляется - среднее геометрическое по выборке. Его удобно вычислить как экспоненту от среднего ln y;
2) Наблюдения y пересчитываются: новые ;
3) Рассматриваются линейная регрессия с наблюдениями вместо yi, и логарифмическая регрессия с наблюдениями вместо ln(yi). В остальном модели не меняем. Находим остаточные суммы квадратов отклонений для полученных вспомогательных регрессий RSS1 и RSS2;
4) Составляем статистику .
Если это число превышает критическое значение распределения с2 с одной степенью свободы, то выбираем модель y = axbu, если не превышает – выбираем .
Рассмотрим пример:
Тест будет выполнен как для данных о расходах на продукты питания, так и для данных о расходах на жилье в США, логарифмические регрессии для этих двух видов благ [уравнение (4.18), упражнение 4.1] показали, что среднее значения log y составляют 4,8422 для расходов на питание и 4,6662 для расходов на жилье. Масштабирующие множители равны е4,8422 и е4,6662 соответственно. В табл. 4.4 приведены значения СКО для линейной и двойной логарифмической регрессии, при этом использованы то вы должны представить результаты для каждой из них.ор функции, в наибо пересчитанные данные для двух видов благ.
Таблица 5.3