- •Економетрика конспект лекцій
- •Зауваження................................................................................................118
- •1. Регресійний аналіз. Регресійний аналіз для двох змінних: основні ідеї
- •1.1. Гіпотетичний приклад
- •1.2. Концепція регресійної функції популяції (prf роpulation regression function)
- •1.3. Значення терміна “лінійність”
- •1.4. Стохастичні властивості prf
- •1.5. Важливість урахування складової стохастичного збурення
- •1.6. Вибіркова регресійна функція (srf)
- •2. Двовимірна регресійна модель. Задача оцінки
- •2.1. Метод найменших квадратів
- •Експериментальне визначення srf
- •2.2. Властивості оцінок за мнк
- •Дійсна й оцінена ціна будинку і його житлова площа у кв. Футах
- •Припущення 4 гомоскедастичність або рівність дисперсій
- •Це припущення не таке нешкідливе, як здається. Розглянемо рівняння
- •2.3. Точність або стандартна похибка оцінювачів за мнк
- •2.4. Властивості оцінювачів за мнк: теорія Гаусса-Маркова
- •2.5. Коефіцієнт детермінації : міра «якості підгонки»
- •2.6. Числовий приклад
- •2.7. Ілюстративні приклади
- •3. Інтервальні оцінки і перевірка гіпотез
- •3.1. Інтервальні оцінки: основні ідеї
- •3.2 Довірчі інтервали для регресійних коефіцієнтів і
- •Отже, наприклад, змінна
- •3.3. Довірчий інтервал для
- •3.4. Перевірка гіпотез: загальні зауваження
- •3.5. Перевірка гіпотез: підхід на основі довірчого інтервалу
- •3.6. Перевірка гіпотез: підхід, оснований на перевірці значимості
- •3.7. Перевірка значимості : хі-квадрат тест
- •3.8. Регресійний аналіз і аналіз дисперсії
- •Розглянемо таку змінну:
- •3.9. Застосування регресійного аналізу: проблема прогнозу
- •3.10. Форма звіту за результатами регресійного аналізу
- •3.11. Обчислення результатів регресійного аналізу
- •Залишки для проведення -тесту
- •4. Розвиток двовимірної лінійної моделі регресії
- •4.1. Регресія, що проходить через початок координат
- •4.2. Масштабування й одиниці вимірювання
- •Валові внутрішні приватні інвестиції (gpdi) і валовий національний продукт (gnp) у цінах 1972 р. У доларах сша, 1974–1983 рр.
- •4.3. Функціональний вид регресійної моделі
- •4.4. Вимірювання еластичності. Лінійно-логарифмічна модель
- •4.5. Напівлогарифмічні моделі. Визначення темпів зростання.
- •4.6. Обернені моделі
- •4.7. Зауваження щодо стохастичної складової
- •5. Множинний регресійний аналіз. Задача оцінювання
- •5.1. Модель із трьома змінними. Позначення і гіпотези
- •5.2. Інтерпретація рівняння множинної регресії
- •5.3. Значення частинних коефіцієнтів регресії
- •5.4. Оцінка частинних коефіцієнтів регресії за мнк
- •5.6. Проста регресія в контексті множинної регресії
- •5.7. R2 і скорегований r2
- •5.8. Частинні коефіцієнти кореляції
- •5.9. Виробнича функція Коба – Дугласа
- •5.10. Поліноміальная модель регресії
- •6. Припущення нормальності розподілу залишків
- •Витрати на споживання і особистий дохід у сша за 1956–1970 рр.
- •7. Перевірка гіпотез множинної регресії. Загальні зауваження
- •7.1. Перевірка гіпотези про частинний коефіцієнт регресії
- •7.2. Перевірка вибіркової регресії на загальну значущість
- •7.3. Перевірка на рівність двох коефіцієнтів регресії
- •7.4. Перевірка лінійних обмежень
- •Обчислимо
- •7.5. Перевірка структурної стабільності моделей регресії
- •Можна показати, що при виконанні згаданих припущень
- •7.6. Перевірка функціонального виду регресії. Вибір між лінійною моделлю регресії і лінійно-логарифмічною моделлю
- •8. Прогнозування в разі множинної регресії
- •9. Множинна регресія. Матричний метод
- •9.1. Лінійна модель регресії з k змінними
- •9.2. Припущення класичної лінійної моделі регресії в матричній формі
- •Припущення класичної лінійної моделі регресії
- •9.3. Оцінювання за мнк
- •9.4. Коефіцієнт детермінації r2 у матричному позначенні
- •9.5. Кореляційна матриця
- •9.6. Перевірка гіпотез про індивідуальні коефіцієнти регресії в матричному позначенні
- •9.7. Загальна перевірка регресії на значущість. Аналіз дисперсії в матричному позначенні
- •Матричне формулювання anova-таблиці
- •9.8. Перевірка лінійних обмежень. Загальний f-тест у матричних позначеннях
- •9.9. Прогнозування в множинній регресії. Матричне формулювання
- •9.10. Ілюстративний приклад у матричних позначеннях
- •Витрати на споживання на душу населення (ppce) і дохід на душу населення (ppdi) в сша за 1956–1970 рр.
- •Anova-таблиця для даних з таблиці 9.4.
9.4. Коефіцієнт детермінації r2 у матричному позначенні
Коефіцієнт детермінації R2 визначається так:
. |
|
У разі двох змінних
, |
|
а в разі трьох змінних
. |
|
Узагальнюючи на випадок k змінних, отримуємо
. |
(9.4.1) |
Рівність (9.4.1) можна переписати як
. |
(9.4.2) |
Для нашого прикладу
, , . |
|
Підставляючи ці значення в (9.4.2), одержуємо R2=0,962062.
9.5. Кореляційна матриця
Раніше зупинялися на понятті кореляційних коефіцієнтів нульового порядку , , і на понятті частинних або першого порядку кореляційних коефіцієнтів , , та їх взаємозв’язку. Для випадку моделі з k змінними ми матимемо всього кореляційних коефіцієнти нульового порядку. Їх можна подати у вигляді матриці, що називається кореляційною матрицею R:
. |
(9.5.1) |
Тут індекс 1, як і раніше, позначає залежну змінну Y ( позначає кореляційний коефіцієнт між Y і X2 і т.д.). При цьому ми використовували той факт, що кореляційний коефіцієнт по відношенню до самого себе дорівнює 1.
Із кореляційної матриці R можна отримати кореляційні коефіцієнти першого порядку й більш високих порядків.
9.6. Перевірка гіпотез про індивідуальні коефіцієнти регресії в матричному позначенні
Якщо нашою метою є проведення статистичних висновків, то нам необхідно припустити, що збурення підкоряються деякому закону розподілу. Як ми раніше вже згадували, у регресійному аналізі ми звичайно приймаємо, що кожний підкоряється нормальному закону розподілу з нульовим математичним сподіванням і постійною дисперсією . У матричних позначеннях ми запишемо
. |
(9.6.1) |
Припускаючи нормальність розподілу вектора u у разі дво- й тривимірних моделей лінійної регресії, ми знаємо, що отримані за МНК оцінки також нормально розподілені. Узагальнюючи цей результат на випадок k змінних, можна показати, що
, |
|
тобто кожен елемент вектора розподілений нормально з математичним сподіванням, яке дорівнює відповідному елементу істинного , а дисперсія задається добутком на відповідний діагональний елемент оберненої матриці .
Оскільки на практиці невідома, то використовують її оцінку . У такому разі шляхом звичайного переходу до t-розподілу приходимо до висновку про те, що кожний елемент вектора підкоряється закону t-розподілу з (n–k) степенями вільності. У математичних позначеннях
|
(9.6.2) |
з (n–k) степенями вільності, де – будь-яка компонента вектора . Отже, t-розподіл може бути застосований для перевірки гіпотез про істинне значення , а також встановлення для довірчого інтервалу. Сам механізм застосування обговорювався нами раніше.