- •1. Загальне поняття про кореляційно-регресійний аналіз
- •2. Класична модель лінійної регресії
- •3. Передумови застосування методу найменших квадратів (1 мнк) (Гауса-Маркова умови)
- •4. «Метод найменших квадратів (1мнк)
- •5. Властивості оцінок, що одержані за методом найменших квадратів
- •6. Оцінка параметрів нелінійних функцій
- •Матеріал, що необхідно повторити для вивчення лекції:
- •Питання для самостійної роботи:
ЛЕКЦІЯ № 3. ПРОГНОЗУВАННЯ НА ОСНОВІ ПРОСТОЇ ЛІНІЙНОЇ РЕГРЕСІЇ
1. Загальне поняття про кореляційно-регресійний аналіз
При вивченні економічного явища головним є встановлення причино-наслідних відношень. Причина – сукупність умов, обставин, дій, що приводять до появи наслідку (якогось результату). Такі відношення, як правило, транзитивний характер, тобто властивості причини ( ) переходять на наслідок ( ). Для виділення головних причин явище розглядається поетапно. На першому етапі проводиться якісний аналіз явища, що вивчається; на другому – побудова моделі зв’язку, а на третьому – інтерпретація отриманих результатів. Ознаки явища поділяють на факторні (причина) і результативні (наслідок).
При вивченні економічних явищ розрізняють три види зв’язку між ознаками:
Функціональний зв’язок – певному значенню факторної ознаки відповідає певне значення результативної.
Стохастичний (випадковий) зв’язок – прояви залежності спостерігаються не в кожному окремому випадку, а в загальному, при великій кількості повторень.
Кореляційний зв’язок – частиний випадок стохастичного при якому зміна середнього значення результативної ознаки обумовлена зміною факторної ознаки.
Кореляція (лат. взаємозв’язок) – це статистична залежність між випадковими величинами, що не має строгого функціонального характеру, але при якій зміна однієї випадкової величини приводить до зміни математичного очікування іншої.
Розрізняють такі види кореляційного зв’язку:
Парна кореляція – взаємозв’язок між двома випадковими величинами.
Множинна кореляція – залежність результативної ознаки від двох і більш факторних.
Частинна кореляція – залежність між результативною і факторною ознаками при фіксованому значенні інших факторних ознак.
Можна розглядати два види аналізу між змінними: кореляційний та регресійний аналіз. Кореляційний аналіз досліджує щільність зв’язку між результативною та факторною ознаками, а регресійний – форму зв’язку (тобто аналітичний вираз зв’язку). Тобто основною його ціллю є оцінка функціональної залежності середнього значення результативної ознаки від значення факторної х.
Таким чином кореляційно-регресійний аналіз вирішує задачі:
Оцінка рівняння регресії.
Оцінка щільності зв’язку через коефіцієнт кореляції.
Основними передумовами цих видів аналізу є:
кореляційного – підпорядкованість сукупності всіх факторних і результативної ознаки нормальному ( ) або близькому до нього закону розподілу;
регресійного – регресійна ознака підпорядковується нормальному закону розподілу, а факторна – довільному.
Умовами застосування кореляційно-регресійного аналізу є:
Всі ознаки та їх сумісні розподіли підпорядковуються нормальному закону.
Дисперсія результативної ознаки є постійною (D(y)=const) при зміні як її величини при зміні величини факторної (умова гомоскедастичності).
Окремі спостереження повинні бути незалежними.
Розмірність рівняння регресії (кількості факторів) існує такий емпіричний критерій: кількість факторних ознак (k) в 5–6 разів менше об’єму вибірки (n).
В теорії кореляційно-регресійного аналізу розрізняють такі моделі:
Відносно кількості змінних: проста і множинна, або багатофакторна регресія (кореляція).
Відносно форми зв’язку: лінійна і нелінійна.
Лінійна форма простіша та використовується для апроксимації (лат. наближатися, тобто наближене зображення одних математичних об’єктів іншими простішими) в залежності, якщо результативна і факторна ознаки змінюються однаково, приблизно за арифметичною прогресією, та не6великому діапазоні значень. В інших випадках використовують нелінійні форми, наприклад, при оберненому зв’язку – гіперболічну залежність, а якщо регресом (у) змінюється значно швидше ніж факторна ознака (х) – степеневу або показникові залежність.
Для апроксимації досліджуваних даних при кореляційно-регресійному аналізі можуть бути використані такі залежності:
– лінійна за параметрами та пояснювальною змінною;
– квадратична (степенева), лінійна за параметрами, але не лінійна за пояснювальною (факторною) змінною (в рівняння входять х не тільки першої степені);
– степенева;
, – показникові;
– логарифмічна;
– рівностороння гіпербола;
– дробно-лінійна;
– дробно-раціональна.
Інколи використовують кусково-лінійну або кусково-поліноміальну інтерполяцію*.
Інтерполяція – лат. заміна. В статистиці це спосіб математичного обґрунтування наближеного зображення відсутніх членів ряду.
Екстраполяція – наближене знаходження значень даних, що знаходяться поза рядом відомих даних.
При інтерполяції весь відрізок функції поділяють на частини, що описують лінійною функцією або поліномом. Але в точках з’єднання відрізків буде розриватися перша похідна. В таких випадках використовують інтерполяцію сплайнами. Сплайн – функція, що на кожному відрізку інтерполяції є алгебраїчним багаточленом, а на всьому заданому відрізку безперервна разом разом з декількома своїми похідними. Частіше розглядають побудову сплайнів третьої степені (кубічні сплакни).