- •1. Основні теоретичні положення регресійного аналізу
- •1.1. Кореляційна залежність
- •1.2. Основні математичні поняття,
- •1.3. Передумови використання
- •2. Парний регресійний аналіз
- •2.1. Лінійна парна регресія
- •2.2. Властивості оцінок
- •2.3. Лінійний коефіцієнт кореляції
- •2.4. Коефіцієнт детермінації
- •2.5. Оцінка значущості рівняння регресії
- •2.6. Прогноз залежної змінної.
- •2.7. Приклад 1.
- •2.8. Нелінійна парна регресія
- •2.9. Дослідження нелінійних рівнянь
- •2.10. Приклад 2.
- •2.11. Побудова функції парної регресії
- •2.12. Побудова графіку функції
- •2.13. Питання для самоперевірки
- •3. Багатофакторний регресійний аналіз
- •3.1. Класична нормальна лінійна модель
- •3.2. Коефіцієнти детермінації і кореляції.
- •3.3. Перевірка значущості параметрів
- •3.4. Прогноз залежної змінної
- •3.5. Приклад 3. Знаходження двофакторної моделі
- •3.6. Використання пакету анализ данных
- •3.7. Використання Excel для розрахунку
- •Введення і підготовка даних
- •4. Мультиколінеарність
- •4.1. Поняття і наслідки мультиколінеарності
- •4.2. Алгоритм Фаррара – Глобера
- •4.3. Приклад 4.
- •4.5. Питання для самоперевірки
- •5. Гетероскедастичність
- •5.1. Поняття гетероскедастичності
- •5.2. Виявлення гетероскедастичності.
- •5.3. Приклад 5. Дослідження даних
- •5.4. Виявлення гетероскедастичності.
- •5.5. Приклад 6. Дослідження даних
- •5.6. Непараметричний тест Гольдфельда-Квандта
- •5.7. Питання для самоперевірки
- •6. Автокореляція
- •6.1. Поняття автокореляції.
- •6.2. Критерій Дарбіна-Уотсона
- •6.3. Приклад 7. Дослідження моделі на наявність
- •6.4. Питання для самоперевірки
- •7. Індивідуальні комплексні завдання
- •Завдання 2
- •Завдання 3
- •Завдання 4
- •Завдання 5
- •Предметний покажчик
- •Література
- •Коефіцієнтів автокореляції залишків
- •Критичні значення і для коефіцієнта автокореляції залишків критерія Дарбіна-Уотсона для
- •Критичні значення і для коефіцієнта автокореляції залишків критерія Дарбіна-Уотсона для
- •Значення критерія Пірсона
- •Квантилі розподілу Стьюдента
- •83050, М. Донецьк, вул. Щорса, 31.
- •83023, М. Донецьк, вул. Харитонова, 10
2.8. Нелінійна парна регресія
Якщо між економічними показниками існують нелінійні співвідношення, то вони виражаються за допомогою відповідних нелінійних функцій. Серед нелінійних регресій розрізняють два класи: регресії, нелінійні за пояснюючою змінною, але лінійні за оцінюваними параметрами, і регресії, нелінійні за оцінюваними параметрами.
Прикладам регресій нелінійних за пояснюючою змінною можуть служити наступні залежності:
поліноміальна:
, (2.8.1)
; (2.8.2)
гіперболічна
. (2.8.3)
До регресій, нелінійних за оцінюваними параметрами, відносяться залежності:
степенева
(2.8.4)
показникова
(2.8.5)
експоненційна
(2.8.6)
і т.д.
Регресії, нелінійні за пояснюючою змінною, легко зводяться до лінійних заміною змінних. Так, наприклад, (2.8.1) –(2.8.3) можна записати у вигляді:
; (2.8.7)
; (2.8.8)
, (2.8.9)
де зроблено заміни: , , і . Таким чином, у результаті лінеаризації одержимо: лінійне двофакторне рівняння (2.8.7), лінійне трифакторне (2.8.8) і лінійне однофакторне рівняння (2.8.9).
Параметри рівнянь (2.8.7) – (2.8.9) визначаються методом найменших квадратів. Застосування 1МНК для оцінки параболи другого ступеня (2.8.7) приводить до наступної системи нормальних рівнянь:
→ (2.8.10)
Розв’язавши цю систему рівнянь за формулами Крамера, одержимо
; ; , (2.8.11)
де визначники визначаються так
; ;
; .
Зауваження. |
Більшість дослідників серед поліномів найчастіше використовують параболу другого ступеня. Обмеження у використанні поліномів високих ступенів пов'язані з вимогою однорідності досліджуваної генеральної сукупності: чим вище порядок полінома, тим більше вигинів має крива й відповідно менш однорідна сукупність за результативною ознакою. Крім того слід мати на увазі, що обсяг вибірки повинен у 6-7 разів перевищувати кількість параметрів моделі. |
Аналогічно, для гіперболічної залежності (2.8.3) одержимо систему рівнянь:
→ (2.8.12)
Звідки параметри і :
(2.8.13)
де
; ; ;
.
Регресії нелінійні за оцінюваними параметрами також можуть бути перетворені до лінійного виду. Прологарифмуємо ліві і праві частини (2.7.4) – (2.7.6), та одержимо лінеаризовані рівняння:
або , (2.8.14)
або , (2.8.15)
або , (2.8.16)
де , , , .
Параметри рівнянь (2.8.14) – (2.8.16) також можна одержати методом найменших квадратів. Так для степеневої моделі одержимо систему нормальних рівнянь:
→ (2.8.17)
Звідки
(2.8.18)
і
, або , (2.8.19)
де , .
Параметр визначаємо потенціюванням , після цього підставляємо параметри і у рівняння регресії (2.8.4) і визначаємо степеневу функцію моделі.
Степеневу функцію застосовують, у теорії попиту та пропозицій. Це виробничі функції, криві освоєння для характеристики зв'язку між трудомісткістю продукції і масштабами виробництва в період освоєння випуску нового виду виробів і залежність валового національного доходу від рівня зайнятості.
Аналогічні перетворення можна виконати для показникової функції й одержати параметри і :
або (2.8.20)
і
або . (2.8.21)
Параметри і знайдемо потенціюванням:
, ,
підставляємо їх у (2.8.5) і знаходимо показникову функцію.
Для експоненційної функції параметри і в (2.8.6) мають вигляд:
і . (2.8.22)
Практичне застосування показникової функції і експоненти можливо, якщо результативна ознака не має від’ємних значень. Тому, якщо досліджується, наприклад, фінансовий результат діяльності підприємств, то дана функція не може бути використана.