- •Загальні поняття економетричних моделей. Задачі економетрії.
- •Кореляційно-регресійний аналіз в економіці. Функціональний та кореляційний зв’язки.
- •2) Визначення тісноти зв'язку (задача кореляційного аналізу).
- •Функція регресії. Регресор. Регресат. Причини обов'язкової присутності в регресійних моделях випадкового фактора.
- •Просторові дані. Часові ряди. Особливості часових рядів. Кореляційне поле.
- •Застосування методу Фостера-Стюарта з метою виявлення закономірного зв’язку між змінними
- •Методи вибору найкращої функції регресії
- •Економетрична модель. Специфікація моделі регресії.
- •Економетрична модель. Параметризація рівняння регресії.
- •Моделі часових рядів. Регресійні моделі з одним рівнянням.
- •Моделі часових рядів. Системи незалежних, рекурсивних, взаємозалежних рівнянь.
- •Порівнянність та однорідність даних. Повнота даних та стійкість.
- •Сутність методу найменших квадратів
- •Застосування методу максимальної правдоподібності з метою оцінювання параметрів економетричної моделі
- •Поняття кореляція. Кореляційний момент або коваріація. Коефіцієнт кореляції. Вибірковий кореляційний момент. Стандартна похибка.
- •Якісна оцінка коефіцієнтів кореляції за шкалою Чеддока. Розподіл Фішера-Іейтса.
- •Поняття кореляції. Оцінка значимості коефіцієнта кореляції з використанням t-критерію Стьюдента.
- •Матриця коефіцієнтів парної кореляції. Вибірковий коефіцієнт множинної кореляції та коефіцієнт детермінації. Вибірковий частинний коефіцієнт кореляції.
- •Проблема мультиколінеарності. Застосування алгоритму Фаррера-Глобера.
- •Індекс кореляції. Методика розрахунку кореляційного відношення.
- •Побудова економетричної моделі на основі покрокової регресії.
- •«Істинне» рівняння регресії. Парна регресія. Систематична та випадкова складові.
- •Умови Гаусса-Маркова.
- •Властивості оцінок параметрів регресійного рівняння: незміщеність, обґрунтованість, ефективність та інваріантність.
- •Оцінки найменших квадратів. Верифікація моделі. Стандартна похибка рівняння. Оцінений коефіцієнт детермінації.
- •Оцінки найменших квадратів. Перевірка значущості та довірчі інтервали. Прогнозування за лінійною моделлю.
- •Множинна регресія. Специфікація багатофакторної моделі. Помилки специфікації множинної регресії.
- •Мультиколінеарність. Практичні наслідки мультиколінеарності та методи її усунення.
- •Оцінка якості моделі множинної регресії. Перевірка виконання передумов мнк. Перевірка гіпотези про нормальний розподіл залишків регресії
- •Етапи побудови економетричної моделі.
- •Оцінка якості прогнозів за регресійними моделями
- •Нелінійна регресія відносно пояснюючих змінних. Нелінійна регресія по параметрам, що оцінюються. Внутрішньо лінійна та нелінійна функції.
- •Особливості параметризації нелінійної регресії. Вибір аналітичної форми дослідження.
- •Фіктивні змінні. Ілюстрація використання фіктивної змінної. Множинні сукупності фіктивних змінних.
- •Оцінка якості моделі. Дослідження відповідності моделі емпіричним даним. Оцінка точності моделі.
- •Поняття гомоскедастичності та гетероскедастичності залишків. Наслідки порушень припущення про гомоскедастичність.
- •Методи виявлення гетероскедастичності. Тест Голдфельда-Квандта. Тест рангової кореляції Спірмена.
- •Трансформування початкової моделі з гетероскедастичністю.
- •Зважений метод найменших квадратів.
- •Оцінювання параметрів регресії за допомогою узагальненого методу найменших квадратів (методу Ейткена).
- •Поняття автокореляції. Автокореляція залишків. Лагові затримки.
- •Природа автокореляції та її наслідки. Методи усунення автокореляції.
- •Тестування наявності автокореляції. Критерій Дарбіна-Уотсона. Критерій фон Неймана.
- •Коефіцієнти автокореляції та їх застосування. Автокореляційна функція та корелограма.
- •Оцінка параметрів моделі з автокорельованими залишками. Метод Ейткена.
- •Оцінка параметрів моделі з автокорельованими залишками. Метод Кочрена-Оркатта.
- •Прогноз на основі моделі з автокорельованими залишками.
- •Узагальнені економетричні моделі.
- •Поняття лагу і лагових змінних.
- •Дистрибутивно-лагові моделі. Авторегресійні моделі.
- •Моделі розподіленого лагу. Узагальнена модель розподіленого лагу.
- •Оцінка параметрів лагових моделей. Метод послідовного збільшення кількості лагів.
- •Перетворення Койка (метод геометричної прогресії).
- •Модель адаптивних сподівань. Модель часткового коригування.
- •Оцінювання параметрів методом Ейткена.
- •Динамічний та часовий ряди. Систематичні та випадкові компоненти часового ряду. Стаціонарність часового ряду.
- •Фільтрація компонент часового ряду. Ts, ds, тренд-сезонні, нелінійні часові ряди.
- •Дослідження автокореляційної функції часового ряду.
- •Методи фільтрації сезонної компоненти.
- •Прогнозування тенденції часового ряду за механічними методами та аналітичними методами.
- •Адаптивні методи прогнозування.
- •Метод декомпозиції часового ряду. Розрахунок сезонної хвилі.
- •Системи одночасних економетричних рівнянь. Ендогенні та екзогенні змінні.
- •Структурна та зведена форми економетричної моделі. Повна економетрична модель.
- •Ідентифікованість моделі. Необхідна та достатня умови ідентифікованості системи.
- •Непрямий метод найменших квадратів.
- •Двокроковий та трикроковий методи найменших квадратів.
- •Прогноз ендогенних змінних і загальні довірчі інтервали.
Множинна регресія. Специфікація багатофакторної моделі. Помилки специфікації множинної регресії.
На будь-який економічний показник Y, як правило, впливає не один, а декілька факторів (регресорів) . Так, наприклад, попит населення на певний товар буде визначатися не тільки ціною на нього, але й цінами на його замінники, доходами споживачів й іншими факторами. У низці досліджень аналізується зв’язок доходу працівника певної галузі виробництва з його рівнем освіти, віком, стажем роботи в цій галузі.
В подібних випадках маємо справу з множинною лінійною моделлю (регресією), що описує взаємний зв’язок між залежною змінною Y та регресорами і яку можна подати такому вигляді:
(4.1)
Цей математичний запис інформує про функціональну залежність умовного математичного сподівання залежної змінної Y від m регресорів (незалежних, пояснюючих) змінних Х .
Отже, постає задача виявлення статистичного взаємозв’язку між Y та Х.
Загальний запис теоретичної лінійної множинної регресії може бути зроблений в такому вигляді:
, (4.2)
де – теоретичні коефіцієнти регресії (часткові коефіцієнти) або параметри теоретичної регресії, які характеризують реакцію залежної змінної на зміну кожного регресора ;
– вільний член, який визначає значення за умови, коли значення регресорів дорівнюють нулеві;
– значення -го регресора при і-ому спостереженні;
– випадковий збудник при і-ому спостереженні.
Для однозначного визначення параметрів моделі (4.2) необхідно, щоб виконувалась нерівність
де n – число спостережень;
m – число регресорів в моделі.
Маючи на увазі, що вибір аналітичної форми економетричної моделі не може розглядатись без конкретного переліку незалежних змінних, специфікація моделі передбачає добір чинників для економетричного дослідження.
При побудові моделі множинної регресії відбір найбільш істотних факторів, що впливають на результативну ознаку, проводиться на основі якісного, теоретичного аналізу у поєднанні з використанням статистичних прийомів. При цьому в процесі такого дослідження можна кілька разів повертатись до етапу специфікації моделі, уточнюючи перелік незалежних змінних та вид функції, що застосовується. Адже коли вид функції та її складові не відповідають реальним залежностям, то йдеться про помилки специфікації.
Помилки специфікації моделі можуть бути трьох видів:
1) ігнорування істотної пояснюючої змінної при побудові економетричної моделі;
2) введення до моделі незалежної змінної, яка не стосується вимірюваного зв’язку;
3) використання не відповідних математичних форм залежності.
При цьому порівняльний аналіз та відбір факторів до регресії може здійснюватися на основі кореляційного аналізу.
Мультиколінеарність. Практичні наслідки мультиколінеарності та методи її усунення.
Одна з передумов застосування методу найменших квадратів до оцінювання параметрів лінійних багатофакторних моделей – відсутність лінійних зв’язків між незалежними змінними моделі. Якщо такі зв’язки існують, то це явище називають мультиколінеарністю.
Суть мультиколінеарності полягає в тому, що в багатофакторній регресійній моделі дві або більше незалежних змінних пов’язані між собою лінійною залежністю або, іншими словами, мають високий ступінь кореляції:
(4.6)
Наявність мультиколінеарності створює певні проблеми при розробці моделей. Насамперед, визначник матриці спостережень наближається до нуля, і оператор оцінювання за звичайним МНК стає надзвичайно чутливий до похибок вимірювань і похибок обчислень.
Практичні наслідки мультиколінеарності:
мультиколінеарність незалежних змінних (факторів) призводить до зміщення оцінок параметрів моделі, які розраховуються за МНК. На основі цих оцінок неможливо зробити конкретні висновки про результати взаємозв’язку між показником і факторами;
збільшення дисперсії та коваріації оцінок параметрів, обчислених за методом найменших квадратів;
збільшення довірчого інтервалу (оскільки збільшується середній квадрат відхилення параметрів);
незначущість t-статистик.
Зовнішні ознаки наявності мультиколінеарності такі:
велике значення R2 і незначущість t-статистики.
велике значення парних коефіцієнтів кореляції.
Для визначення мультиколінеарності здебільшого застосовують такі тести:
F-тecт, запропонований Глобером і Фарраром (ЛР.01);
характеристичні значення та умовний індекс.
Звичайно, усе залежить від ступеня мультиколінеарності, однак у будь-якому разі можна запропонувати кілька простих методів усунення мультиколінеарності:
використання додаткової або первинної інформації;
об’єднання інформації;
відкидання змінної з високою кореляцією;
перетворення даних (використання перших різниць);
збільшення кількості спостережень.
Які поради спрацюють на практиці, залежить від істотності проблеми та її характеру. Якщо переліченими методами не вдається усунути мультиколінеарність, то для оцінювання параметрів багатовимірної моделі доцільно застосувати метод головних компонентів.