- •2.Автокорреляция случайного возмущения. Причины. Последствия.
- •4.Автокорреляция. Методы устранения автокорреляции
- •5.Алгоритм проверки адекватности парной регрессионной модели
- •6.Алгоритм проверки значимости регрессора в парной регрессионной модели
- •7.Алгоритм теста Голдфелда-Квандта на наличие (отсутствие) гетероскедастичности случайных возмущений.
- •8.Выбор типа математической функции при построении уравнения регрессии
- •9.Выведите формулы вычисления параметров модели парной регрессии
- •10.Гетероскедастичность - понятие, проявление и меры устранения.
- •11.Гетероскедастичность случайного возмущения. Причины. Последствия. Тест gq.
- •12.Двухшаговый метод наименьших квадратов для оценки параметров структурной формы модели
- •15.Индивидуальная и интервальная оценка индивидуального значения зависимой переменной
- •16.Интервальная оценка параметров уравнения парной регрессии
- •17.Классическая парная регрессионная модель. Спецификация модели. Теорема Гаусса – Маркова.
- •18.Ковариация, коэффициент корреляции и индекс детерминации
- •19.Количественные характеристики взаимосвязи пары случайных переменных.
- •20. Косвенный метод наименьших квадратов для оценки параметров структурной формы модели
- •21. Коэффициент корреляции и индекс детерминации в регрессионной модели.
- •22. Линейная модель множественной регрессии
- •23. Метод Монте-Карло, его применение в эконометрике
- •24. Метод наименьших квадратов: алгоритм метода; условия применения. Обобщённый метод наименьших квадратов
- •25. Модели с бинарными (фиктивными) переменными.
- •26. Моделирование тенденции временных рядов (аналитическое выравнивание)
- •27. Мультиколлинеарность факторов – понятие, проявление и меры устранения
- •28. Назначение теста Голдфелда-Квандта, этапы его проведения.
- •Нелинейная модель множественной регрессии Кобба-Дугласа. Оценка её коэффициентов.
- •30.Нелинейная регрессия (линеаризация, оценка параметров)
- •31.Ожидаемое значение случайной переменной, её дисперсия и среднее квадратическое отклонение.
- •32.Основные числовые характеристики вектора остатков в классической множественной регрессионной модели
- •33.Отражение в модели влияния неучтённых факторов и времени.
- •35.Оценка адекватности полученной эконометрической модели (см. 5)
- •36.Оценка коэффициентов модели Самуэльсона-Хикса
- •37.Оценка параметров множественной регрессионной модели методом наименьших квадратов.
- •38. Оценка параметров парной регрессионной модели методом наименьших квадратов.
- •39.Оценка параметров эконометрической модели
- •40.Оценка статистической значимости коэффициентов модели множественной регрессии. (см. 6)
- •41.Подбор объясняющих переменных множественной линейной модели. Алгоритм исключения квазинеизменных переменных
- •42.Подбор объясняющих переменных множественной линейной модели. Метод анализа матрицы коэффициентов корреляции.
- •43.Подбор переменных в модели множественной регрессии на основе метода оценки информационной ёмкости.
- •44.Понятие гомоскедастичности и гетероскедастичности случайных возмущений, их графическая интерпретация.
- •45.Порядок оценивания линейной модели множественной регрессии методом наименьших квадратов (мнк) в Excel
- •46.Последствия гетероскедастичности. Тест Голдфелда-Квандта.
- •47.Предпосылки метода наименьших квадратов
- •48.Применение обобщенного метода наименьших квадратов (омнк) для случая гетероскедастичности остатков.
- •49.Применение теста Стьюдента в процедуре подбора переменных в модели множественной регрессии.
- •50.Применение фиктивных переменных при исследовании сезонных колебаний: спецификация модели, экономический смысл параметров при фиктивных переменных.
- •52.Проблема мультиколлинеарности в моделях множественной регрессии. Признаки мультиколлинеарности.
- •53.Проверка качества эконометрической модели См.5
- •54.Прогнозирование экономических переменных. Проверка адекватности модели. См.5
- •56.Регрессионные модели с фиктивными переменными.
- •57.Роль вектора и матрицы корреляции множественной линейной модели при подборе объясняющих переменных.
- •58.Свойства дисперсии случайной переменной
- •59.Случайные переменные и их характеристики.
- •60.Смысл и значение множественной регрессии в эконометрических исследованиях. Выбор формы уравнения множественной регрессии.
- •62.Спецификация и оценивание мнк эконометрических моделей нелинейных по параметрам
- •64.Способы корректировки гетероскедастичности. Метод взвешенных наименьших квадратов.
- •65.Статистические свойства оценок параметров парной регрессионной модели.
- •66.Статистические характеристики выборки и генеральной совокупности статистических данных. Их соотношения.
- •67.Суть метода наименьших квадратов. Его графическое пояснение
- •68.Схема Гаусса – Маркова.
- •69.Схема построения эконометрической модели.
- •70.Теорема Гаусса – Маркова.
- •71.Тест Дарбина – Уотсона, последовательность его выполнения.
- •72.Тест Стьюдента.
- •73. Типы переменных в эконометрических моделях. Структурная и приведённая формы спецификации эконометрических моделей.
- •74. Устранение автокорреляции в парной регрессии. (см. 4)
- •75. Функция регрессии как оптимальный прогноз.
- •76. Цели и задачи эконометрики. Этапы процесса эконометрического моделирования. Классификация эконометрических моделей.
- •77. Эконометрика, её задача и метод.
- •78. Эконометрическая инвестиционная модель Самуэльсона-Хикса.
- •80. Этапы исследования зависимостей между экономическими явлениями при помощи эконометрической модели. Принципы спецификации модели. Формы эконометрических моделей.
- •81. Этапы построения эконометрических моделей
26. Моделирование тенденции временных рядов (аналитическое выравнивание)
Метод аналитического выравнивания с помощью функций времени или кривых роста является основным методом представления тренда в аналитическом виде, используемым в эконометрике. Суть данного метода заключается в аппроксимации временного ряда определённой формой регрессионной кривой. При этом наиболее проблематичным является вопрос о выборе функции тренда.
Выбор выравнивающей кривой может осуществляться на основании заранее заданных критериев, к которым относятся:
1) множественный коэффициент детерминации;
2) сумма квадратов отклонений наблюдаемых значений временного ряда от теоретических значений (рассчитанных с помощью функции тренда).
Методом конечных разностей называется метод, позволяющий подобрать подходящую форму кривой. Его применение возможно в том случае, если временной ряд содержит равностоящие друг от друга уровни.
Конечной разностью первого порядка (разностным оператором первого порядка) называется разность между соседними уровнями временного ряда:
∆t1 = ∆yt+1 – yt + yt, (t = 2,…,n)
Разностным оператором второго порядка (конечной разностью второго порядка) называется разность между соседними разностными операторами первого порядка:
∆t2 = yt+1 – 2yt + yt+1, (t=3,…,n)
В общем случае разностным оператором i-го порядка называется разность между соседними разностными операторами (i-1)-го порядка:
∆ti = ∆ti-1 - ∆t-1i-1 , (t = i+n,…,n)
-
Если разностные операторы первого порядка постоянны и равны между собой
∆21 = ∆31 = … = ∆n1
а разностные операторы второго порядка равны нулю
∆32 = ∆42 = … = ∆n2 = 0
то тренд изучаемого временного ряда можно аппроксимировать линейной функцией вида y=a+β*t+ε.
-
Если разностные операторы второго порядка постоянны и равны между собой
∆32 = ∆42 = … = ∆n2
а разностные операторы третьего порядка равны нулю
∆43 = ∆53 = … = ∆n3 = 0
то тренд изучаемого временного ряда можно аппроксимировать параболической функцией второго порядка вида y=a+β1*t+β2*t2..
Следовательно, порядок разностных операторов, являющихся постоянными для данного временного ряда, определяет степень уравнения тренда: y=∑βj*tj.
Оценки неизвестных коэффициентов уравнения тренда рассчитываются с помощью классического метода наименьших квадратов.Если тренд временного ряда можно аппроксимировать линейной функцией, то её коэффициенты можно рассчитать с помощью метода моментов. При этом в модель вводится новая переменная времени T, началом координат которой является середина временного ряда. Таким образом, её сумма по всем элементам равняется нулю.
Линейная модель регрессии с учётом новой переменной принимает вид: yt = a+β*Tt + εt.
Оценки неизвестных коэффициентов данной модели рассчитываются из системы нормальных уравнений:
an = ∑yt
β∑T2t = ∑ytTt
Решением данной системы будут оценки коэффициентов уравнения тренда:
a = (∑yt) / n
β = (∑ytTt) / ∑T2t
27. Мультиколлинеарность факторов – понятие, проявление и меры устранения
Наибольшие затруднения в использовании аппарата множественной регрессии возникают при наличии мультиколлинеарности факторных переменных, когда более чем два фактора связаны между собой линейной зависимостью.
Мультиколлинеарностью для линейной множественной регрессии называется наличие линейной зависимости между факторными переменными, включёнными в модель.
Мультиколлинеарность – нарушение одного из основных условий, лежащих в основе построения линейной модели множественной регрессии.
Чем сильнее мультиколлинеарность факторных переменных, тем менее надежной является оценка распределения суммы объясненной вариации по отдельным факторам с помощью метода наименьших квадратов.
Обнаружение мультиколлинеарности.
Конкретных методов обнаружения мультиколлинеарности не существует, а принято применять ряд эмпирических приёмов. В большинстве случаев множественный регрессионный анализ начинается с рассмотрения корреляционной матрицы факторных переменных R или матрицы (ХТХ).
Корреляционной матрицей факторных переменных называется симметричная относительно главной диагонали матрица линейных коэффициентов парной корреляции факторных переменных:
r11 r12 … r1n 1 r12 … r1n
r21 r22 … r2n r21 1 … r2n
R = … … … … = … … … …
rn1 rn2 … rnn rn1 rn2 … 1
где rij – линейный коэффициент парной корреляции между i-м и j-ым факторными переменными,
i, j = 1,…,n
При рассмотрении данной матрицы с целью выявления мультиколлинеарных факторов руководствуются следующими правилами:
1) если в корреляционной матрице факторных переменных присутствуют коэффициенты парной корреляции по абсолютной величине большие 0,8, то делают вывод, что в данной модели множественной регрессии существует мультиколлинеарность;
2) вычисляют собственные числа корреляционной матрицы факторных переменных λmin и λmax. Если λmin‹10-5, то в модели регрессии присутствует мультиколлинеарность. Если отношение
Λmin / λmax < 10-5
то также делают вывод о наличии мультиколлинеарных факторных переменных;
3) вычисляют определитель корреляционной матрицы факторных переменных. Если его величина очень мала, то в модели регрессии присутствует мультиколлинеарность.
Способы устранения мультиколлинеарности:
1) один из наиболее простых способов устранения мультиколлинеарности состоит в получении дополнительных данных. Однако на практике в некоторых случаях реализация данного метода может быть весьма затруднительна;
2) способ преобразования переменных, например, вместо значений всех переменных, участвующих в модели (и результативной в том числе) можно взять их логарифмы:
Если рассмотренные способы не помогли устранить мультиколлинеарность факторов, то переходят к использованию смещённых методов оценки неизвестных параметров модели регрессии, или методов исключения переменных из модели множественной регрессии.
Если ни одну из факторных переменных, включённых в модель множественной регрессии, исключить нельзя, то применяют один из основных смещённых методов оценки коэффициентов модели регрессии – гребневую регрессию или ридж, а также метод компонент и метод пошагового включения.