- •ОГЛАВЛЕНИЕ
- •ПРЕДИСЛОВИЕ
- •МЕТОДИЧЕСКИЕ МАТЕРИАЛЫ
- •РАБОЧАЯ ПРОГРАММА ДИСЦИПЛИНЫ
- •РЕКОМЕНДАЦИИ ПО САМОСТОЯТЕЛЬНОЙ РАБОТЕ СТУДЕНТА
- •ТЕОРЕТИЧЕСКИЕ МАТЕРИАЛЫ
- •ГЛАВА 1. СТАТИСТИЧЕСКИЕ ПОНЯТИЯ И РАСПРЕДЕЛЕНИЯ
- •§ 1. Введение
- •§ 2. Суть регрессионного анализа
- •§ 3. Некоторые статистические определения
- •§ 4. Нормальное (гауссовское) распределение
- •§ 5. (хи-квадрат)-распределение
- •§ 6. Распределение Стьюдента (t-распределение)
- •§ 7. F-распределение (распределение дисперсионного отношения)
- •§ 8. Статистическая проверка гипотез
- •§ 9. Определение критических значений распределений Стьюдента и Фишера с использованием программы Microsoft Office Excel
- •Резюме
- •Вопросы для самопроверки
- •ГЛАВА 2. ПАРНАЯ ЛИНЕЙНАЯ РЕГРЕССИЯ. УСЛОВИЯ ГАУССА–МАРКОВА
- •§ 1. Основные понятия
- •§ 2. Метод наименьших квадратов
- •§ 3. Предпосылки метода наименьших квадратов
- •§ 4. Анализ точности определения оценок коэффициентов регрессии
- •§ 5. Проверка статистической значимости коэффициентов парной линейной регрессии
- •§ 6. Интервальные оценки коэффициентов линейного уравнения регрессии
- •§ 7. Доверительные интервалы для зависимой переменной
- •§ 8. Проверка общего качества уравнения регрессии. Коэффициент детерминации
- •Резюме
- •Вопросы для самопроверки
- •ГЛАВА 3. МНОЖЕСТВЕННАЯ ЛИНЕЙНАЯ РЕГРЕССИЯ
- •§ 1. Определение параметров уравнения регрессии
- •§ 2. Расчет коэффициентов множественной линейной регрессии
- •§ 3. Дисперсии и стандартные ошибки коэффициентов
- •§ 4. Проверка статистической значимости коэффициентов уравнения регрессии
- •§ 5. Интервальные оценки коэффициентов теоретического уравнения регрессии
- •§ 6. Проверка общего качества уравнения регрессии
- •§ 7. Проверка равенства двух коэффициентов детерминации
- •§ 8. Проверка гипотезы о совпадении уравнений регрессии для двух выборок
- •§ 10. Частные уравнения регрессии
- •Резюме
- •Вопросы для самопроверки
- •ГЛАВА 4. АВТОКОРРЕЛЯЦИЯ СЛУЧАЙНЫХ ВОЗМУЩЕНИЙ
- •§ 1. Суть и причины автокорреляции
- •§ 2. Последствия автокорреляции
- •§ 3. Обнаружение автокорреляции. Критерий Дарбина–Уотсона
- •§ 4. Методы устранения автокорреляции
- •Резюме
- •Вопросы для самопроверки
- •ГЛАВА 5. ГЕТЕРОСКЕДАСТИЧНОСТЬ СЛУЧАЙНЫХ ВОЗМУЩЕНИЙ
- •§ 1. Общие понятия
- •§ 2. Последствия гетероскедастичности
- •§ 3. Обнаружение гетероскедастичности
- •§ 4. Методы смягчения проблемы гетероскедастичности
- •Резюме
- •Вопросы для самопроверки
- •ГЛАВА 6. МУЛЬТИКОЛЛИНЕАРНОСТЬ
- •§ 1. Общие понятия и последствия мультиколлнеарности
- •§ 2. Определение мультиколлинеарности
- •§ 3. Методы устранения мультиколлинеарности
- •Резюме
- •Вопросы для самопроверки
- •ГЛАВА 7. ФИКТИВНЫЕ ПЕРЕМЕННЫЕ В РЕГРЕССИОННЫХ МОДЕЛЯХ
- •§ 1. Модель с одной фиктивной (бинарной) переменной
- •§ 3. Сравнение двух регрессий
- •Резюме
- •Вопросы для самопроверки
- •ГЛАВА 8. НЕЛИНЕЙНАЯ РЕГРЕССИЯ
- •§ 1. Общие понятия
- •§ 2. Степенные модели (логарифмические)
- •§ 3. Обратная модель (гиперболическая)
- •§ 4. Полиномиальная модель
- •§ 5. Показательная модель (лог-линейная)
- •§ 6. Выбор формы модели
- •Резюме
- •Вопросы для самопроверки
- •ГЛАВА 9. ВРЕМЕННЫЕ РЯДЫ
- •§ 1. Общие понятия
- •§ 2. Моделирование тренда временного ряда
- •§ 4. Стационарные ряды
- •§ 5. Процесс авторегрессии AR(p)
- •§ 6. Процессы скользящего среднего MA(q)
- •§ 7. Комбинированные процессы авторегрессии-скользящего среднего ARMA(p, q)
- •§ 8. Модели ARMA, учитывающие наличие сезонности
- •§ 9. Нестационарные временные ряды. Процессы авторегрессии и проинтегрированного скользящего среднего ARIMA(p, k, q)
- •§ 10. Регрессионные модели с распределенными лагами
- •§ 11. Полиномиально распределенные лаги Ш. Алмон
- •Резюме
- •Вопросы для самопроверки
- •ГЛАВА 10. СИСТЕМЫ ОДНОВРЕМЕННЫХ УРАВНЕНИЙ
- •§ 1. Общие понятия
- •§ 2. Идентификация структурной формы модели
- •§ 3. Косвенный метод наименьших квадратов
- •§ 4. Двухшаговый метод наименьших квадратов
- •§ 5. Трехшаговый метод наименьших квадратов
- •Резюме
- •Вопросы для самопроверки
- •ЗАКЛЮЧЕНИЕ
- •ЗАДАНИЯ ДЛЯ КОНТРОЛЯ
- •Тесты для самоконтроля
- •Ключи к тестам для самоконтроля
- •Контрольная работа
- •Вопросы к зачету (экзамену)
- •ГЛОССАРИЙ
- •СПИСОК ЛИТЕРАТУРЫ
эффициент b1 определяет тангенс угла наклона прямой регрессии относительно положительного направления оси абсцисс (объясняющей переменной). Поэтому часто он называется угловым коэф-
фициентом.
Свободный член b0 уравнения регрессии определяет прогнозируемое значение y при величине располагаемого дохода x, равной нулю (т. е. автономное потребление). Однако здесь необходима определенная осторожность. Очень важно, насколько далеко данные наблюдений за объясняющей переменной отстоят от оси ординат (зависимой переменной), так как даже при удачном подборе уравнения регрессии для интервала наблюдений нет гарантии, что оно останется таковым и вдали от выборки. В нашем случае значение b0 = 4,46 говорит о том, что при нулевом располагаемом доходе расходы на потребление составят в среднем 4,46 ден. ед. Этот факт можно объяснить для отдельного домохозяйства (оно может тратить накопленные или одолженные средства), но для совокупности домохозяйств он теряет смысл. В любом случае значение коэффициента b0 определяет точку пересечения прямой регрессии с осью ординат и характеризует сдвиг линии регрессии вдоль оси Y.
Эмпирические коэффициенты регрессии b0 и b1 являются лишь оценками теоретических коэффициентов β0 и β1, а само уравнение отражает общую тенденцию в поведении рассматриваемых переменных. Индивидуальные значения переменных могут отклоняться от модельных. Эти отклонения выражены через значения еi, которые являются оценками отклонений εi для генеральной совокупности. При определенных условиях, которые будут обсуждаться в дальнейшем, уравнение регрессии служит незаменимым и очень качественным инструментом анализа и прогнозирования.
Закономерен вопрос о качестве оценок коэффициентов и самого уравнения в целом. Его и рассмотрим далее.
§ 3. Предпосылки метода наименьших квадратов
Регрессионный анализ позволяет определить оценки коэффициентов регрессии. Но оценки не позволяют сделать вывод, насколько точно эмпирическое уравнение регрессии соответствует уравнению для всей генеральной совокупности, насколько близки оценки
48
b0 и b1-коэффициентов к своим теоретическим прототипам β0 и β1, как близко оцененное значение ˆyi к условному математическому ожида-
нию M (Y (X =xi ), насколько надежны найденные оценки. Для отве-
та наэтивопросынеобходимы дополнительные исследования. Значения yi зависят от значений xi и случайных отклонений εi.
Следовательно, переменная Y является СВ, напрямую связанной с εi. До тех пор, пока не будет определенности в вероятностном поведении εi, мы не сможем быть уверенными в качестве оценок.
Известно, что для получения по МНК наилучших результатов необходимо, чтобы выполнялся ряд предпосылок относительно случайного отклонения.
Предпосылки МНК (условия Гаусса–Маркова)
1. Математическое ожидание случайного отклонения εi равно нулю: M (εi )=0 для всех наблюдений.
Данное условие означает, что случайное отклонение в среднем не оказывает влияния на зависимую переменную. В каждом конкретном наблюдении случайный член может быть либо положительным, либо отрицательным, но он не должен иметь системати-
ческого смещения. Выполнимость M (εi )=0 влечет выполнимость:
M (Y X =xi )= β0 +β1xi .
2. Дисперсия случайных отклонений εi постоянна: D(εi)=D(εj )=σ2ε =const для любых наблюдений i и j.
Условие независимости дисперсии ошибки от номера наблюде-
ния называется гомоскедастичностью (homoscedasticity). Невы-
полнимость данной предпосылки называется гетероскедастично-
стью (heteroscedasticity).
|
2 |
|
Поскольку D(εi)=M (εj−M (εj )) |
=M (εi2), то данную пред- |
|
|
|
|
посылку можно переписать в форме: M (εi2)=σ2ε . Причины невы-
полнимости данной предпосылки и проблемы, связанные с этим, подробно рассматриваются ниже.
49
3. Случайные отклонения εi и εj являются независимыми друг от друга для i ≠ j .
Выполнимость данной предпосылки предполагает, что отсутствует систематическая связь между любыми случайными отклонениями. Величина и определенный знак любого случайного отклонения не должны быть причинами величины и знака любого другого отклонения.
Выполнимость данной предпосылки влечет следующее соотношение:
0, при i ≠ j
σεi εj = σ2ε, при i = j.
Поэтому, если данное условие выполняется, то говорят об отсутствии автокорреляции. С учетом выполнимости предпосылки 1 данное соотношение может быть переписано в виде:
M (εi εj )=0 (i ≠ j).
Причины невыполнимости данной предпосылки и проблемы, связанные с этим, рассматриваются ниже.
4. Случайное отклонение должно быть независимо от объясняющих переменных.
Обычно это условие выполняется автоматически, если объясняющие переменные не являются случайными в данной модели.
Данное условие предполагает выполнимость следующего соотношения:
σεi xi =M (εi −M (εi)) (xi −M (xi)) =M (εi ,x j )=0 .
Следует отметить, что выполнимость данной предпосылки не столь критична для эконометрических моделей.
5. Модель является линейной относительно параметров.
Для случая множественной линейной регрессии существенными являются еще две предпосылки.
6. Отсутствие мультиколлинеарности.
Между объясняющими переменными отсутствует сильная линейная зависимость.
50
7. Случайные отклонения εi, i = 1, 2, …, n, имеют нормальное распределение.
Выполнимость данной предпосылки важна для проверки статистических гипотез и построения интервальных оценок.
Наряду с выполнимостью указанных предпосылок при построении классических линейных регрессионных моделей делаются еще некоторые предположения. Например:
•объясняющие переменные не являются случайными величи-
нами;
•число наблюдений существенно больше числа объясняющих переменных (числа параметров уравнения);
•отсутствуют ошибки спецификации, т. е. правильно выбран вид уравнения и в него включены все необходимые переменные.
Часто полагают, что число наблюдений должно быть как минимум в 5-6 раз больше числа параметров уравнения (числа объясняющих переменных).
Теорема Гаусса–Маркова
Если предпосылки 1-5 выполнены, то оценки, полученные по МНК, обладают следующими свойствами:
1. Оценки параметров являются несмещенными, т. е. M (b1)= β1 , M (b0)= β0 (математические ожидания оценок параметров равны их теоретическим значениям). Это вытекает из того, что M (εi )=0 ,
и говорит об отсутствии систематической ошибки в определении положения линии регрессии.
2. Оценки параметров состоятельны, так как дисперсия оценок параметров при возрастании числа n наблюдений стремится к нулю
D( |
b0 |
) →0, D( |
b1 |
) →0 . Другими словами, при увеличении |
|
n→∞ |
n→∞ |
объема выборки надежность оценок увеличивается (b1 наверняка близко к β1, b0 — близко к β0).
3. Оценки параметров эффективны, т. е. они имеют наименьшую дисперсию по сравнению с любыми другими оценками данных параметров, линейными относительно величин yi.
51