- •1. Основные задачи эконометрики. Эконометрические модели. Примеры.
- •2. Классификация переменных. Типы данных.
- •3. Типы данных, измерения в эконометрике.
- •2) Динамические данн – данн экономического показателя для какого либо объекта, собранного в последовательные моменты времени с одинаковым интервалом.
- •4. Основные этапы эконометрического моделирования на примере.
- •5. Классификация эконометрических моделей
- •6. Задачи регрессионного анализа. Виды зависимостей м-ду перем.
- •7. Способы оценивания. Свойства оценок.
- •8. Проверка статистических гипотез.
- •9. Парная регрессия. Описание метода наименьших квадратов.
- •10. Вывод формул для оценок параметров парной линейной регрессии.
- •11. Дисперсионный анализ. Оценка значимости уравнения регрессии.
- •12. Коэффициенты корреляции, детерминации Интерпретация.
- •13. Проверка гипотез относительно параметров линейного уравнения.
- •14. Интервальная оценка параметров моделей парной регрессии
- •15. Вычисление предсказ. Значений зависимой переменной. Доверительные интервалы для предсказаний. Коэф. Эластичности.
- •16. Выбор функции. Сравнение различных моделей
- •17. Предпосылки применения мнк
- •18. Нелинейная регрессия. Нелинейная модель и их линеаризация.
- •19. Преобразование случайного отклонения в моделях нелин регрессии
- •20. Модель множественной регрессии. Условия Гаусса-Маркова.
- •21. Вывод формул для оценок коэффициентов модели мр. Матричная запись. Теорема Гаусса-Маркова.
- •22. Дисперсии и стандартные ошибки коэффициентов (ковариационная матрица и ее выборочная оценка).
- •23. Интервальные оценки коэффициентов уравнения мр. Проверка статистической значимости коэффициентов.
- •24. Проверка общего качества уравнения множественной регрессии.
- •25.Коэффициент детерминации для уравнения множественной регрессии.
- •28. Использование статстики Фишера для вкл. В модель х.
- •29. Необходимость проверки предпосылок регрессионного анализа.
- •30. Спецификация ур-я мр. Тест Рамсея.
- •31. Логарифмические (лог-линейные модели). Производственная функция Кобба-Дугласа. Зависимости в банковском анализе.
- •32. Обратная модель. Ф-ция Торнквиста. Кривая Филипса.
- •33. Суть гетероскедастичности.
- •34. Выявление гетероскедастичности (Тест г-к, Тест Спирмена)
- •35. Устранение гк. Метод взвешенных нк.
- •36. Автокорреляция случайных ошибок.
- •37. Выявление автокорреляции
- •38. Методы устранения автокорреляции
- •39. Мультиколлинеарность как проблема данных. Следствия.
- •40. Обнаружение мультиколлинеарности
- •41. Борьба с мультиколлинеарностью. Гребневая регрессия.
- •42. Фиктивные переменные
- •43 Тест Чоу.
- •44. Системы эконометрических уравнений
- •48. Временные ряды. Мультипликативная и аддитивная модели.
- •49. Автокорреляционная функция
- •50. Моделирование тенденции временного ряда, сезонных и циклич. Колебаний.
40. Обнаружение мультиколлинеарности
Частная корреляция – связь мд 2мя показателями, очищенная от влияния всех ост показателей модели, они как бы остаются неизменными на опр ур-е
Прим: у – з/п, х1 – стаж, х2 – возраст
Ryx1>0 ryx2>0 rx1x2>0
Ryx2 – не очищена он влияния стажа(х1)
Ryx2*x1<0
Rx1x2*x3=(rx1x2-rx1x3*rx3x3)/корень(1-rx1x2^2) * корень(1-rx2x3^2)
Строим матрицу x от х, на главной диагонали 1 = R~
Строим ей обратную (R~)^-1=C
Rxixj*x1….xi-1 xi+1…xj-1 xj+1…xm = Cij/корень (Сii*CJJ)
Высокие част коэф-ты корреляции между обясняющими переменными – есть свидетельство мультиколлинеарности.
2) Ур-ние значимо R^2 – близок к 1, а большинство параметров иногда все кроме свободн члена стистич не значимы.
3) Высокие парные коэ-ты корреляции
4) Метод основан на критерии пирсона для оценки мкльтикол.
Для матр R~ находим det
Если мультиколл-ти не было вовсе, rxixj=0 ->R~=E-> det(R~)=1;
Если rxixj=1 ->R~=E-> det(R~)=0;
H0: мультиколлинеарности нет det(R~) =1
H1: есть, тогда: выбираем гипотезу X^2(хи)=[n-1 – 1/5(2m+5)*ln(det(R~))]
Xкр^2(альфа, df), df(чсс)=1/2m(m-1) m – число переменных
X^2<X^2кр->Но
X^2>X^кр->H1
41. Борьба с мультиколлинеарностью. Гребневая регрессия.
Способы борьбы:
Если, модель, используется для прогноза, то при высокой значимости уравнения мультиколлинеарность не существует, если модель используется для оценки влиян кажд факта на результат, то мультикол-ть – проблема, которую нужно решить
1)Если мультикол-ть возникает из-за включен связанных переменных, то часть переменных нужно попробовать исключить
2) Если мультиколл – проблема конретной выборки: - выборку можно увеличить – данн можно собрать заново(при увеличении выборки возрастает риск автокорреляции)
3) Преобразовать связи мд переменными(преобразованные данные могут не так точно опис реальные)
4) Ридж-регрессия – суть в получении смещенных оценок b
B=(x^t*x)(^-1)*x^ty
Det=(x^t*x)0(мультиколлинеарность) оценки не стабильные
T принадл [0.1;0.4]
x^t*x+TEm+1, тогда det(x^t*x+TEm+1) b= (x^t*x+TEm+1)^-1*x^t*y
T- фиксируется как только оценка перестаёт меняться
42. Фиктивные переменные
коллич. образом определяют качественные факторы. В кач-ве фиктивной переменной выбирается фикт. переменная, кол-во значений которой совпадает с числом уровней градаций качеств. показателя. Пример: фактор «пол» имеет 2 уровня :м и ж. Можно выразить с помощью бинарной переменной альфа со значениями : 0 и 1. Качеств. показатель проще описать по влиянию на результат ( 0 – нет влияния,1 – на сколько увелич.).
Если кач. показатель принимает более 2ух уровней градации, то его можно описать дискр. переменной с соотв. числом значений, но этого избегают по нескольким причинам. Пример: образование. d= 0 –среднее, 1- среднее-специальное, 2 – высшее.
y – з/п
y = бета 0 + «петля»*d + E
бета 0 – з/п,ср. образование
бета 0 + «петля» - з/п , среднее-спец.
бета 0 + 2* »петля» - з/п, высшее образование
Ошибка : заранее предположить известной разницу во влиянии отдельных уравнений на результат. В этом случае качеств. показатель описывается с помощью бинарных переменных, число кот. на 1 меньше числа уравнений градаций показателя. d1 = 1 – высшее, 0 – невысшее. d2 = 1 – среднеспециальное, 0 – несреднеспец. Среднее образование : d1=d2=0.
Ловушка фикт. переменной: вводится столько же бин. переменных, сколько и уравнений градаций качеств. показателя.
d1+….+dr = 1 для любого наблюдения.
Тогда в матрице Х сумма столбцов этих бин. переменных линейно-зависима со столбцаом, отвечающим своб. членом = 1. Совершенная мультиколлинеарность и определитель det((х в степени Т)* х)=0, сл-но вектор
у – з/п
х-стаж
d = 1 – работа в Москве,0 – работа в Пензе
у=бета0+бета1*х+»петля»*d+бета2*х*d+Е
Пенза : у = бета0+бета1*х+»петля»*d+бета2*х*d+Е
бета0 – базовая часть
бета1 – надбавка за год стажа
Москва: у=(бета0+»петля»)+(бета1+бета2)х+Е
«петля» - надбавка
бета2 – надбавка за год стажа