- •Економетрика конспект лекцій
- •Зауваження................................................................................................118
- •1. Регресійний аналіз. Регресійний аналіз для двох змінних: основні ідеї
- •1.1. Гіпотетичний приклад
- •1.2. Концепція регресійної функції популяції (prf роpulation regression function)
- •1.3. Значення терміна “лінійність”
- •1.4. Стохастичні властивості prf
- •1.5. Важливість урахування складової стохастичного збурення
- •1.6. Вибіркова регресійна функція (srf)
- •2. Двовимірна регресійна модель. Задача оцінки
- •2.1. Метод найменших квадратів
- •Експериментальне визначення srf
- •2.2. Властивості оцінок за мнк
- •Дійсна й оцінена ціна будинку і його житлова площа у кв. Футах
- •Припущення 4 гомоскедастичність або рівність дисперсій
- •Це припущення не таке нешкідливе, як здається. Розглянемо рівняння
- •2.3. Точність або стандартна похибка оцінювачів за мнк
- •2.4. Властивості оцінювачів за мнк: теорія Гаусса-Маркова
- •2.5. Коефіцієнт детермінації : міра «якості підгонки»
- •2.6. Числовий приклад
- •2.7. Ілюстративні приклади
- •3. Інтервальні оцінки і перевірка гіпотез
- •3.1. Інтервальні оцінки: основні ідеї
- •3.2 Довірчі інтервали для регресійних коефіцієнтів і
- •Отже, наприклад, змінна
- •3.3. Довірчий інтервал для
- •3.4. Перевірка гіпотез: загальні зауваження
- •3.5. Перевірка гіпотез: підхід на основі довірчого інтервалу
- •3.6. Перевірка гіпотез: підхід, оснований на перевірці значимості
- •3.7. Перевірка значимості : хі-квадрат тест
- •3.8. Регресійний аналіз і аналіз дисперсії
- •Розглянемо таку змінну:
- •3.9. Застосування регресійного аналізу: проблема прогнозу
- •3.10. Форма звіту за результатами регресійного аналізу
- •3.11. Обчислення результатів регресійного аналізу
- •Залишки для проведення -тесту
- •4. Розвиток двовимірної лінійної моделі регресії
- •4.1. Регресія, що проходить через початок координат
- •4.2. Масштабування й одиниці вимірювання
- •Валові внутрішні приватні інвестиції (gpdi) і валовий національний продукт (gnp) у цінах 1972 р. У доларах сша, 1974–1983 рр.
- •4.3. Функціональний вид регресійної моделі
- •4.4. Вимірювання еластичності. Лінійно-логарифмічна модель
- •4.5. Напівлогарифмічні моделі. Визначення темпів зростання.
- •4.6. Обернені моделі
- •4.7. Зауваження щодо стохастичної складової
- •5. Множинний регресійний аналіз. Задача оцінювання
- •5.1. Модель із трьома змінними. Позначення і гіпотези
- •5.2. Інтерпретація рівняння множинної регресії
- •5.3. Значення частинних коефіцієнтів регресії
- •5.4. Оцінка частинних коефіцієнтів регресії за мнк
- •5.6. Проста регресія в контексті множинної регресії
- •5.7. R2 і скорегований r2
- •5.8. Частинні коефіцієнти кореляції
- •5.9. Виробнича функція Коба – Дугласа
- •5.10. Поліноміальная модель регресії
- •6. Припущення нормальності розподілу залишків
- •Витрати на споживання і особистий дохід у сша за 1956–1970 рр.
- •7. Перевірка гіпотез множинної регресії. Загальні зауваження
- •7.1. Перевірка гіпотези про частинний коефіцієнт регресії
- •7.2. Перевірка вибіркової регресії на загальну значущість
- •7.3. Перевірка на рівність двох коефіцієнтів регресії
- •7.4. Перевірка лінійних обмежень
- •Обчислимо
- •7.5. Перевірка структурної стабільності моделей регресії
- •Можна показати, що при виконанні згаданих припущень
- •7.6. Перевірка функціонального виду регресії. Вибір між лінійною моделлю регресії і лінійно-логарифмічною моделлю
- •8. Прогнозування в разі множинної регресії
- •9. Множинна регресія. Матричний метод
- •9.1. Лінійна модель регресії з k змінними
- •9.2. Припущення класичної лінійної моделі регресії в матричній формі
- •Припущення класичної лінійної моделі регресії
- •9.3. Оцінювання за мнк
- •9.4. Коефіцієнт детермінації r2 у матричному позначенні
- •9.5. Кореляційна матриця
- •9.6. Перевірка гіпотез про індивідуальні коефіцієнти регресії в матричному позначенні
- •9.7. Загальна перевірка регресії на значущість. Аналіз дисперсії в матричному позначенні
- •Матричне формулювання anova-таблиці
- •9.8. Перевірка лінійних обмежень. Загальний f-тест у матричних позначеннях
- •9.9. Прогнозування в множинній регресії. Матричне формулювання
- •9.10. Ілюстративний приклад у матричних позначеннях
- •Витрати на споживання на душу населення (ppce) і дохід на душу населення (ppdi) в сша за 1956–1970 рр.
- •Anova-таблиця для даних з таблиці 9.4.
2.3. Точність або стандартна похибка оцінювачів за мнк
З рівнянь (2.1.15), (2.1.16) зрозуміло, що оцінювачі і за МНК функція від даних вибірки. Але оскільки дані можуть змінюватися від вибірки до вибірки, то змінюватимуться й значення оцінювачів. Отже, необхідна міра «достовірності» або точності обчислення оцінювачів і . У статистиці точність оцінювача вимірюється його стандартною похибкою. Як зазначено раніше при прийнятих гіпотезах оцінювачі за МНК мають такі значення дисперсій і стандартної похибки:
; |
(2.3.1) |
, |
(2.3.2) |
; |
(2.3.3) |
; |
(2.3.4) |
де дисперсія . Усі величини, що входять у (2.3.1)–(2.3.4), за виключенням , можна підрахувати за даними вибірки. Для самої ж величини справедлива формула
, |
(2.3.5) |
де оцінка за МНК істинного значення . Величина (N–2) має назву кількості степенів вільності (df, number degrees freedom). сума квадратів залишків RSS (residual sum squares).
Оскільки відома, то може бути легко обчислений. Сама величина може бути обчислена за формулою
|
|
або
. |
(2.3.6) |
Зауважимо, що формула (2.3.6) простіша в застосуванні порівняно з (2.1.2), тому що не вимагає обчислення для кожного i, хоча саме таке обчислення виявляється корисним.
Оскільки
, |
|
з (2.3.6) можна отримати ще один вираз для підрахунку :
. |
(2.3.7) |
Позитивний квадратний корінь з
|
(2.3.8) |
називається стандартною похибкою оцінювача. Вона є стандартним відхиленням величин Y від оціненої лінії регресії і часто застосовується як сумарна міра “якості підгонки” оціненої лінії регресії.
Відзначимо такі властивості дисперсії (а отже, і стандартної похибки) коефіцієнтів і .
Дисперсія коефіцієнта прямо пропорційна , але обернено пропорційна . Тобто для даного , чим більша область зміни величин Х, тим менша дисперсія і, отже, вища точність, з якою може бути оцінений . Коротше кажучи, при значній зміні величин Х коефіцієнт може бути виміряний більш точно, ніж при незначній зміні величин Х. Крім того, для даної величини чим більше , тим більша дисперсія . Зауважимо, що зі збільшенням обсягу вибірки N, кількість членів у зростатиме. Тому зі зростанням N точність оцінки коефіцієнта збільшуватиметься.
Дисперсія коефіцієнта прямо пропорційна і , але обернено пропорційна і розміру вибірки N.
Оскільки і є оцінками, вони будуть не тільки змінюватися від вибірки до вибірки, але й будуть взаємно залежними в межах однієї вибірки. Ця залежність вимірюється коваріацією між ними. Пізніше буде показано, що
. |
(2.3.9) |
Оскільки завжди позитивна, коваріація між і залежить від знака . Якщо , тоді, як бачимо з формули (2.3.9), коваріація буде негативна. Так, якщо кутовий коефіцієнт оцінений із завищенням (тобто лінія регресії підіймається із завищеною крутістю) коефіцієнт перетину матиме занижене значення (перетин матиме менше значення).