- •П.Я. Бушин
- •Введение
- •Глава 1. Парная линейная регрессия и корреляция
- •1.1. Обычный метод наименьших квадратов (мнк) и его предпосылки
- •1.2. Оценки точности уравнения регрессии и его параметров
- •1.2.1. Стандартная ошибка оценки по регрессии
- •1.2.3. Интервальные оценки параметров уравнения регрессии
- •1.2.4. Проверка значимости параметров уравнения регрессии
- •1.2.7. Коэффициент ранговой корреляции Спирмена
- •1.3. Спецификация уравнения регрессии
- •0 1,22 1,42 2,58 2,78 4
- •1.4. Нелинейная корреляция и регрессия
- •1.4.2. Индекс корреляции
- •Глава 2. Множественная корреляция и регрессия
- •2.1. Множественный корреляционный анализ
- •2.1.1. Анализ матрицы парных коэффициентов корреляции
- •2.1.2. Частная и множественная корреляция
- •2.2. Линейная модель множественной регрессии
- •2.2.1. Уравнение множественной регрессии в натуральном масштабе
- •2.2.2.Стандартизованное уравнение множественной регрессии
- •2.2.3. Оценки точности уравнения множественной регрессии
- •2.2.4. Анализ остатков уравнения множественной регрессии на втокорреляцию
- •2.2.5. Пошаговый выбор переменных
- •0 0,9 1,83 2,17 3,1 4
- •2.3. Особые случаи использования мнк во множественной регрессии
- •2.3.1. Оценка параметров уравнения множественной регрессии в условиях мультиколлинеарности (пошаговый регрессионный анализ)
- •2.3.2. Оценка параметров уравнения множественной регрессии с автокоррелированными остатками
- •2.3.3. Оценка уравнения множественной регрессии с гетероскедастичными остатками (обобщенный мнк)
- •2.3.4. Регрессионные модели с переменной структурой (фиктивные переменные)
- •Глава 3. Анализ временных рядов
- •3.1. Характеристики временных рядов
- •3.2. Показатели точности прогноза
- •3.3. Анализ автокорреляций
- •3.4. Модели стационарных временных рядов
- •3.5. Модели нестационарных временных рядов
- •3.5.1. Прогноз по тренду
- •3.5.2. Прогнозирование на основе сезонной компоненты (сезонная декомпозиция временного ряда)
- •3.5.3. Прогноз по экспоненциально взвешенным скользящим средним (адаптивные методы прогнозирования)
- •Поквартальные данные продажи учебников
- •Расчет прогноза с учетом сезонной компоненты
- •Глава 4. Система одновременных эконометрических уравнений
- •4.1. Общие понятия о системах одновременных уравнений
- •4.2. Косвенный метод наименьших квадратов
- •4.3. Проблемы идентифицируемости
- •Библиографический список
- •Оглавление
- •Глава 1. Парная линейная регрессия и корреляция………………………………………4
- •Глава 2. Множественная корреляция и регрессия………………………………………..23
- •Глава 3. Анализ временных рядов………………………………………………………….58
- •Пример. Моделирование сезонной компоненты на основе
- •Учебное издание Павел Яковлевич Бушин эконометрика
0 0,9 1,83 2,17 3,1 4
Итак, вычисленное значение статистики Дарбина – Уотсона попало в область неопределенности (между 2,17 и 3,1), поэтому на основе этого правила нет статистических оснований ни принять ни отклонить гипотезу о наличии автокорреляции в остатках.
В то же время 2,43 меньше, чем 2,5, поэтому эмпирическая рекомендация (если значение критерия между 1,5 и 2,5, то автокорреляция отсутствует) не подтвердила факта отсутствия автокорреляции. Так что этой рекомендацией надо пользоваться осторожно (как предварительный вывод).
Проведем теперь отчет о пошаговом регрессионном анализе. Его результаты приведены на рис. 21.
Рис. 21. Отчет о пошаговой регрессии после исключения незначимых переменных (ППП STATISTICA)
Как видим, коэффициент множественной детерминации изменился не значимо (был равен 60,4 %, а стал равен 52,2 %). Но уравнение регрессии при этом стало существенно проще – вместо четырех содержит всего две переменные.
Кроме того, вместо трех значимых переменных (такой вывод мы сделали анализируя матрицу парных коэффициентов корреляции) их стало две: х3 их4, т. е. окончательно имеем, что на количество посещений магазинов фирмы значимо влияют только число потенциальных покупателей и число конкурирующих магазинов и если судить по-коэффициентам, то в большей мере влияет число потенциальных покупателей. Разные знаки при этих коэффициентах говорят о разной направленности таких влияний. А поскольку коэффициент парной корреляции между этими показателями равен нулю (см. для негоp-valueна рис. 16), то эти переменные линейно независимы и мы можем провести их интерпретацию.
Коэффициент при х3, т. е.b3равен 0,747, следовательно, изменение числа потенциальных покупателей на 1 тыс. приведет в среднем к изменению числа посещений магазинов фирмы на 747 человек (уменьшит при уменьшении и увеличит при увеличении). Коэффициент прих4, т. е.b4равен (–0,59), следовательно, изменение числа конкурирующих магазинов на единицу приведет в среднем к изменению числа посещений магазинов фирмы на 590 человек. При этом надо иметь в виду, что на основе имеющейся информации мы сумели описать с помощью этого уравнения изменение числа посещений магазинов фирмы только на 52,2 %. Остальные 47,8 % изменения числа посещений магазинов фирмы зависят от неучтенных в регрессии факторов, в том числе от ошибок наблюдений.
Коэффициент Дарбина–Уотсона для этого уравнения равен 2,33, а табличные значения равны dl = 1,1;du = 1,54 (см. приложения при= 0,05,n= 20,m= 2). Имеем:
___есть__ dl___?__du___нет___4-du___?__4-dl__есть___
0 1,1 1,54 2,46 2,9 4
Вычисленное значение d= 2,33 находится между 1,54 и 2,46, следовательно, для этого уравнения автокорреляция остатков отсутствует.
2.3. Особые случаи использования мнк во множественной регрессии
2.3.1. Оценка параметров уравнения множественной регрессии в условиях мультиколлинеарности (пошаговый регрессионный анализ)
Как уже отмечалось, одной из предпосылок МНК является отсутствие полной мультиколлинеарности между факторными переменными. В противном случае теряется смысл коэффициентов уравнения регрессии и их оценки не точны.
Проиллюстрируем это на следующем примере:
Пример. Мультиколлинеарность и пошаговая регрессия
Пусть имеется следующая информация о количестве владельцев акций (у) в зависимости от цены акции (х1), дивидендов на одну акцию (х2) и отношения дохода к цене (х3) за последние 28 периодов:
Рис. 22. Матрица частных коэффициентов корреляции
Матрица частных коэффициентов корреляции (см. рис. 22) свидетельствует о наличии полной мультиколлинеарности.
Приведем результаты регрессионного анализа этой информации. Уравнение регрессии приведено на рис. 23. Проанализируем его.
Рис. 23. Отчет о множественной регрессии
Критерий Фишера показывает, что данное уравнение регрессии значимо (р-величина для него меньше 0,05). Это означает, что гипотеза о равенстве нулю одновременно всех коэффициентов регрессии отклоняется. В то же время анализ значимости каждого коэффициента в отдельности показывает, что все они равны нулю (все р-величины для них больше 0,05). Этот факт подтверждает проблематичность использования классического регрессионного анализа в случае нарушения предпосылки об отсутствии мультиколлинеарности факторных переменны. Как отмечалось, в этом случае ошибки оценок коэффициентов регрессии становятся значительными по величине (в нашем примере они сопоставимы с самими оценками) и это приводит к неоправданно малым значениям t-статистик для этих коэффициентов и к неоправданным выводам о незначимости этих коэффициентов.
При попытке интерпретации коэффициентов этого уравнения получим «странные» выводы, а именно: при увеличении на единицу цены одной акции число владельцев акций увеличится на 15 123, а при увеличении дивидендов на одну акцию число владельцев акций уменьшится на 11 272 (при среднем числе держателей акций, равном 35 770). Как видно из нижеприведенного графика (рис. 24), диаграмма рассеяния для переменных уих2показывает рост числа владельцев акций при росте дивидендов, а отрицательный коэффициент при переменной х2 в уравнении регрессии (рис. 23) «говорит» об обратном.
Рис. 24. Диаграмма рассеяния для переменных уих2
Это лишний раз подтверждает тот факт, что в случае мультиколлинеарности смысл коэффициентов уравнения регрессии теряется.
Другие проблемы в связи с этим уравнением мы здесь не обсуждаем (например, наличие автокорреляции в остатках или выполнение предпосылки МНК об их гомоскедастичности). Об этом речь ниже. Приведем результат пошаговой регрессии (рис. 25), как иллюстрацию одного из методов избавления от мультиколлинеарности путем удаления из уравнения регрессии одной из коллинеарных переменных.
Рис. 25. Отчет о пошаговой регрессии
Как видим, при исключении переменной х3оставшиеся две переменные стали значимыми. Это не означает, что раньше они были незначимыми. Просто ошибки оценок этих коэффициентов при удалении коллинеарной переменной значительно уменьшились (сравните ошибки оценок коэффициентов уравнений до и после исключения этой переменной). Да и сами коэффициенты (вернее их оценки) стали иными и в большей мере отражают реалии.
Точность же упрощенного уравнения регрессии значительно не изменилась, а исправленный коэффициент множественной детерминации даже увеличился (см. рис. 23 и 25). Последний факт подтверждает свойство исправленного коэффициента множественной детерминации уменьшаться при включении в уравнение регрессии незначимой факторной переменной.
Отметим, что проблема автокорреляции остатков здесь осталась. Для ее решения здесь нужны специальные приемы, о чем речь ниже.