Добавил:
Upload Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:

черняк

.pdf
Скачиваний:
41
Добавлен:
19.03.2015
Размер:
4.29 Mб
Скачать

залежати від їхніх доходів і рівня цін. Виходячи із цієї теоретичної залежності, економетрист може побудувати таку залежність:

lnCt 0 1 lnYt 2 lnPt t , t 1,n ,

де Ct споживання деякого продукту на душу населення у період t ; Yt реальний дохід на душу населення в цьому самому періоді; Pt індекс цін на цей продукт, скоригований на інфляцію; t ,t 0,1,2 – коефіцієнти моделі; t випадкова величина; n кількість

наявних спостережень.

Отримане рівняння описує поведінку споживача залежно від відносного рівня цін на продукт і реального доходу. Закон поведінки буде остаточно визначено, щойно ми знайдемо значення коефіцієнтів моделі.

Таким чином, перше завдання економетриста оцінити ці коефіцієнти.

Друге завдання, що стоїть перед економетристом обґрунтувати можливість використовувати одержане рівняння у практичній діяльності. Для цього слід перевірити адекватність моделі, значущість її коефіцієнтів, їхню стійкість, відповідність збурень моделі до всіх необхідних статистичних властивостей, правильність обраної функціональної форми моделі тощо. Таким чином, економетричні методи дозволяють не лише визначати кількісні зв'язки між економічними змінними, але й робити висновки про статистичну коректність одержаних моделей. У (статистично) коректній моделі можна формулювати положення економічної теорії у вигляді статистичних гіпотез.

Третє завдання це здійснення всебічного аналізу моделі. Слід визначити, як саме фактори впливають на рівень споживання, що відбудеться, якщо значення факторів збільшиться на певну величину. Також доцільно зробити прогноз споживання на майбутнє.

Економетричне моделювання широко застосовують як в економічних дослідженнях, так і в роботі аналітичних підрозділів державних установ і фірм. За розроблення економетричного апарату регулярно присуджують Нобелівські премії в галузі економіки.

11

ЧАСТИНА 1. КЛАСИЧНА ЕКОНОМЕТРИКА

 

 

 

 

 

 

Розділ 1. Проста лінійна регресія

 

 

 

 

 

 

 

1.1. Описання моделі

 

 

 

 

 

 

 

 

Припустимо, що існують дві змінні

x i y , де x

незалежна змінна (регресор),

y

залежна змінна. Співвідношення між цими змінними позначимо

y f (x).

При

статистичному співвідношенні кожному значенню x

відповідає не єдине значення y , але

залежну змінну y можливо точно описати в імовірнісних термінах.

Припустимо, що

функція

f (x) лінійна за

x , тобто

f (x) x ,

а

співвідношення

між x та

y

статистичне, а саме

 

y x ,

 

 

 

 

(1.1)

 

 

 

 

 

 

 

де доданок називається збуренням,

або похибкою,

або випадковим членом регресії і

має відомий імовірнісний розподіл (тобто є випадковою величиною).

У рівнянні (1.1)

x є

детермінованим

компонентом, збурення

 

випадковий, або

стохастичний

компонент; і називаються регресійними коефіцієнтами, або параметрами регресії, які треба оцінити на основі даних про x та y .

Нехай існує n пар значень (xt ,yt ), t 1,n , які називаються спостереженням. Рівняння (1.1) можна записати тоді у вигляді

yt xt t .

(1.2)

Оцінити регресію (1.1) означає знайти оцінки коефіцієнтів ˆ та ˆ . Це можна зробити,

наприклад, за допомогою методу найменших квадратів (МНК), суть якого буде розглянуто в підрозд. 1.2. Оцінивши регресію, отримаємо певну лінію регресії, яка проходитиме крізь точки спостережень, як показано на рис. 1.1.

y

y ˆ ˆ x

x

Рис. 1.1. Лінія регресії та спостереження

Метою регресійного аналізу є знайти найкращі оцінки невідомих коефіцієнтів і у рівнянні (1.2) на основі n спостережень x та y . Безумовно, оцінки можна вважати вдалими, якщо лінія регресії проходитиме відносно недалеко від реальних спостережень.

12

Різниці між фактичними значеннями та регресійною оцінкою залежної змінної називатимемо залишками.

Щоб отримати можливість здійснити статистичний аналіз моделі, про який ішлося в передмові, треба висунути деякі умови щодо збурень t :

1. Нульове середнє M t 0, t 1,n .

Перша умова полягає в тому, що математичне сподівання збурень у будь-якому спостереженні має дорівнювати нулю. Іноді випадковий член буде позитивним, іноді негативним, але він не має систематично зсуватися в жодному із двох можливих напрямків.

Фактично якщо рівняння регресії містить постійний член, то зазвичай можна припустити, що ця умова виконується автоматично, тому що роль константи полягає у визначенні будь-якої систематичної тенденції в у, що не враховують пояснювальні змінні, уведені в рівняння регресії.

2. Рівність дисперсій (гомоскедастичність) D t M i2 2 const,t 1,n .

Друга умова полягає в тому, що дисперсія збурень має бути постійною для всіх спостережень. Іноді випадковий член буде більшим, іноді меншим, однак, не має бути апріорної причини для того, щоб він породжував більшу помилку в одних спостереженнях, ніж в інших. Величина дисперсії, звичайно, невідома. Отже, одне із завдань регресійного аналізу оцінити стандартне відхилення випадкового члена.

Якщо розглянута умова не виконується, то коефіцієнти регресії, знайдені за звичайним методом найменших квадратів (див. підрозд. 1.2), будуть неефективні, а тому можна одержати надійніші результати шляхом застосування модифікованого методу регресії.

3. Незалежність збурень: t та незалежні при t . Зокрема, cov( t , ) M t 0

при t .

Ця умова припускає, що не має систематичного зв'язку між значеннями випадкового члена в будь-яких двох спостереженнях. Наприклад, якщо випадковий член великий і позитивний в одному спостереженні, це не може зумовлювати систематичну тенденцію до того, що він буде більшим і позитивним у наступному спостереженні (або більшим і негативним, або малим і позитивним, або малим і негативним). Випадкові члени мають бути абсолютно незалежними один від одного. Якщо цю умову не буде виконано, то регресія, оцінена за звичайним методом найменших квадратів, знову дасть неефективні результати.

4.Незалежність збурень і регресора: вектори x та незалежні для всіх періодів часу. Це припущення вводять для того, щоб значення будь-якої незалежної змінної в кожному спостереженні вважати екзогенним, тобто цілком зумовленим зовнішніми причинами, урахованими не в рівнянні регресії. Якщо таке припущення не виконується, то оцінки регресії за звичайним методом найменших квадратів будуть зміщеними.

5.Нормальність збурень. Збурення t нормально розподілені для всіх t : t ~ N(0, 2 ). Узявши до уваги припущення 1–3, можна сказати, що t незалежні нормально розподілені випадкові величини з нульовим математичним сподіванням і однаковими

дисперсіями 2 , або t ~ N(0, 2 ). Якщо випадковий член має нормальний розподіл, то

такими самими будуть і розподіли коефіцієнтів регресії. Ця умова необхідна, щоб перевірити гіпотези і визначити надійні інтервали для параметрів, використовуючи результати оцінювання регресії.

Припущення про нормальність ґрунтується на центральній граничній теоремі. По суті, теорема стверджує, що якщо випадкова величина є загальним результатом взаємодії великої кількості інших випадкових величин, жодна з яких не є домінуючою, то вона матиме приблизно нормальний розподіл, навіть якщо окремі складники не мають нормального розподілу. У розд. 3 ми розглянемо властивість асимптотичної нормальності, яка дозволяє розповсюдити стандартні процедури перевірки гіпотез на більш широкий клас моделей.

Отже, модель простої лінійної регресії описують за допомогою рівнянь (2), а збурення цієї моделі задовольняють припущенням 1–5.

13

1.2. Знаходження оцінок параметрів регресії методом найменших квадратів

Нехай ˆ і ˆ деякі оцінки параметрів та . Запишемо рівняння вибіркової регресії yˆ ˆ ˆ x .

Тоді оцінкою математичного сподівання величини залежної змінної yt , побудованою на

основі вибіркової регресії буде

yˆt ˆ ˆ xt .

Позначимо через ˆi yi yˆi різницю між значенням y, яке спостерігалось, і обчисленим з регресії. Оцінки методу найменших квадратів (скорочено МНК-оцінки) знаходять з

умови мінімізації за всіма можливими значеннями ˆ

 

 

ˆ

 

та виразу

 

n

2

n

 

ˆ

2

 

 

(yi ˆ

(1.3)

Q ˆi

xi ) .

i 1

 

i 1

 

 

 

 

Якщо позначити на координатній площині координати точок (xt ,yt ),t 1,n і побудувати

графік прямої yˆ ˆ ˆ x , то можна сказати, що треба знайти пряму, яка буде

найближчою до цих точок (у тому розумінні, що сума квадратів відстаней по вертикалі від цих точок до прямої буде найменшою), як показано на рис. 1.2.

y

y ˆ ˆ x

ˆ i

x

Рис. 1.2. Залишки моделі

Якщо просто мінімізувати суму залишків, то вона автоматично буде рівною нулю приy та 0 , тобто найкращою регресійною лінією буде пряма ó y . У цьому разі

додатні залишки буде врівноважено від'ємними. Проте така лінія не покаже впливу однієї змінної на іншу, а тому вона не має сенсу. Для розв'язання проблеми слід використовувати мінімізацію квадратів відхилень, що фактично накладає штраф за будь-

яке відхилення від справжніх значень незалежно від знаку такої помилки.

 

Щоб мінімізувати вираз (1.3),

запишемо

необхідну умову екстремуму,

тобто

прирівняємо похідні стосовно ˆ

ˆ

 

 

 

 

 

 

та до нуля. Маємо

 

 

 

Q

n

 

ˆ

 

 

 

 

ˆ

 

2(yt ˆ xt )( 1) 0 ,

 

звідки

t 1

 

 

 

 

 

 

n

 

n

 

 

 

 

 

ˆ

 

 

(1.4)

 

 

yt n ˆ

xt ,

 

і

 

t 1

t 1

 

 

 

Q

n

 

 

 

 

 

 

 

ˆ

 

 

 

 

ˆ 2(yt ˆ xt )( xt ) 0 ,

 

 

 

t 1

 

 

 

 

 

звідки

n

 

n

 

n

 

 

 

 

ˆ

2

(1.5)

 

yt xt

ˆ xt

xt .

 

t 1

 

t 1

t 1

 

 

14

Система рівнянь (1.4) і (1.5) називається системою нормальних рівнянь. Уведемо такі позначення:

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

n

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

xt

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

t 1

 

 

 

;

 

 

 

 

 

 

 

 

 

x

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

n

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

n

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

yt

 

 

 

 

 

 

 

 

 

 

 

 

 

 

t 1

 

 

 

;

 

 

 

 

 

 

 

 

 

y

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

n

 

 

 

 

 

 

 

 

 

n

 

 

 

 

 

 

 

 

 

 

 

 

n

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

Sxx

 

(xt

 

 

)2

 

xt2 nx2 ;

 

x

 

 

 

t 1

 

 

 

 

 

 

 

 

 

 

 

 

 

 

t 1

 

 

 

 

 

 

 

 

n

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

n

 

 

 

 

 

 

S

 

 

(y

 

)2

 

y2

n

 

2 ;

 

 

 

yy

y

y

 

 

t 1

 

t

 

 

 

 

t

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

t 1

 

 

 

 

 

 

 

n

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

n

 

 

 

 

 

 

Sxy (xt

 

)(yt

 

) xtyt nx

 

.

 

x

y

y

 

 

t 1

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

t 1

 

 

 

 

 

ˆ

Нехай Sxx 0 . Запишемо розв'язок системи нормальних рівнянь стосовно

за

правилом Крамера:

 

n

n

n

 

ˆ

n xtyt

xt yt

 

t 1

t 1

t 1

 

 

 

 

 

.

n

n

 

 

n xt2

( xt )2

 

 

t 1

t 1

 

 

Розділимо чисельник і знаменник виразу (1.6) на n. остаточно одержимо

ˆ Sxy .

Sxx

(1.6)

Ураховуючи введені позначення,

Значення коефіцієнта ˆ можна також знайти за правилом Крамера, проте, набагато легше знайти його за іншою методикою. Розділимо перше нормальне рівняння (1.4) почленно на n. Маємо

y ˆ ˆ x .

Отже, МНК-оцінки параметрів моделі простої лінійної регресії можна знайти за формулами

ˆ

Sxy

 

 

Sxx

,

(1.7)

ˆ

 

 

bx.

 

y

 

Якщо обчислити матрицю других похідних для Q , то можна побачити, що ця матриця

додатно визначена, отже, значення (1.7) насправді мінімізують (1.3).

 

Рівняння вибіркової регресії набуває вигляду

 

yˆ

 

 

 

 

ˆ

(1.8)

ˆ x .

З першого нормального рівняння випливає, що графік вибіркової регресійної прямої

(1.8) проходить через точку середніх значень залежної та незалежної змінних.

Рівняння (1.8) дає уявлення про характер залежності (точніше, детермінованої її частини) між змінними x та y .

Серед переваг методу найменших квадратів слід виокремити передусім надзвичайну простоту математичного дослідження й отримання результатів. Очевидно, що за допомогою комп'ютерної техніки отримання оцінок регресії зводиться лише до технічної роботи. Крім цього, отримані оцінки мають достатні статистичні властивості для перевірки статистичних гіпотез. Недоліком методу є сильна залежність отриманих результатів від великих збурень і коливань. У подальших розділах буде розглянуто ситуації, у яких для оцінювання регресії доведеться замість методу найменших квадратів використовувати інші підходи (див. розд. 4, 5).

15

1.3. Властивості залишків методу найменших квадратів

Позначимо через

ˆt ,t

1,n

різниці між

фактичними

та теоретичними, тобто

обчисленими з рівняння вибіркової регресії (1.8)

значеннями залежної змінної:

 

 

 

 

ˆ

(1.9)

 

 

 

ˆt yt yˆt yt xt )

Тоді величину ˆt

називатимемо залишками методу

найменших квадратів.

Залишки можна вважати вибірковими, або емпіричними аналогами збурень. З урахуванням уведених позначень перше нормальне рівняння слід записати у вигляді

n

ˆt 0 (1.10)

t 1

Отже, сума залишків методу найменших квадратів дорівнює нулю. Друге нормальне рівняння набуде вигляду

 

 

 

n

 

 

 

 

 

 

 

 

 

 

 

 

 

xt ˆt

0

 

 

 

 

 

(1.11)

 

 

t 1

 

 

 

 

 

 

 

 

 

 

Або якщо позначити через

x

вектор значень незалежної змінної, а через

ˆ

вектор

ε

залишків

 

 

 

x

 

 

 

 

ˆ

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

1

 

 

 

 

1

 

 

 

 

 

 

x

 

x2

,

ˆ

 

ˆ2

,

 

 

 

 

 

...

 

ε

 

...

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

xn

 

 

 

 

ˆn

 

 

 

то (x,ˆ ) 0 . Іншими словами, залишки методу найменших квадратів ортогональні до регресора.

1.4. Розклад дисперсії залежної змінної. Коефіцієнт детермінації

Мета регресійного аналізу не лише знайти оцінки коефіцієнтів регресії, а й пояснити, як поводиться залежна змінна. Розкид значень залежної змінної y у будь-якій вибірці

можна сумарно описати за допомогою вибіркової дисперсії. Треба вміти розраховувати величину цієї дисперсії.

З рівнянь (1.8) та (1.9) випливає, що

 

 

 

 

 

 

 

 

 

 

 

 

 

ˆ

ˆt ,t

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

yt

 

 

 

 

 

1,n

 

 

 

 

(1.12)

 

 

 

 

 

 

 

 

ˆ xt

 

 

 

 

Запишемо другу з формул (1.7) у вигляді

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

ˆ

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

y ˆ

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

(1.13)

 

 

 

 

 

 

 

 

 

x

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

Від кожного з рівнянь (1.12) віднімемо рівняння (1.13):

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

ˆ

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

(1.14)

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

yt y (xt x ) ˆt ,t 1,n

 

 

 

 

Кожне з рівнянь (1.14) піднесемо до квадрату та почленно додамо. Маємо

 

 

 

n

 

 

2

ˆ 2

 

n

 

 

2

 

 

 

n

2

 

 

n

ˆ

 

n

ˆt

 

 

 

(yt

 

(xt

 

 

 

 

 

 

 

 

 

y)

Syy

x )

 

 

ˆt

2 xt ˆt 2 x

 

 

 

t 1

 

 

 

 

t 1

 

 

 

 

 

 

 

 

 

t 1

 

 

 

 

 

t 1

 

 

t 1

,

(1.15)

 

 

 

 

 

 

 

 

 

 

 

 

ˆ 2

 

 

 

 

 

n

2

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

Sxx

 

eˆt

 

 

 

 

 

 

 

 

 

унаслідок (1.10) та (1.11).

 

 

 

 

 

 

 

 

 

 

 

 

 

 

t 1

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

n

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

yˆt

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

Позначимо

yˆ

 

t 1

. З (1.10) випливає, що

 

 

yˆ

. Тому

 

 

 

 

 

y

 

 

 

 

 

n

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

yt y (yt yˆt ) (yˆt y) ˆt yˆt yˆ .

Порівнюючи останнє рівняння з (1.14), бачимо, що

ˆ (xt x ) yˆt yˆ ,

отже

ˆ 2

n

 

 

2

 

 

 

Sxx

(yˆt yˆ ) .

 

t 1

 

 

 

Уведемо такі позначення:

16

 

TSS S

 

 

 

n

(y

 

)2

 

 

 

 

 

 

 

загальна сума квадратів;

yy

y

 

 

 

t 1

t

 

 

 

 

 

 

 

 

 

 

 

 

 

 

ˆ

2

 

 

 

n

 

2

пояснена сума квадратів;

 

 

 

 

 

 

 

ESS Sxx

(yˆt yˆ )

 

 

 

 

 

t 1

 

 

 

n

ˆ

2

сума квадратів залишків.

RSS

 

t 1

t

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

Загальна сума квадратів пропорційна до вибіркової дисперсії залежної змінної. Пояснена сума квадратів пропорційна до вибіркової дисперсії незалежної змінної. Отже, дисперсія залежної змінної складається із двох частин. Перша виникає завдяки розкиду значень незалежної змінної, тобто цю частину слід пояснювати за рахунок моделі (звідси і назва пояснена сума квадратів). Друга частина сума квадратів залишків виникає внаслідок збурень; її не можна пояснити за рахунок моделі. Записавши співвідношення (1.15) з урахуванням уведених позначень, одержимо формулу розкладу дисперсії

TSS ESS RSS.

(1.16)

Природним бажанням дослідника є максимізувати величину поясненої дисперсії та мінімізувати величину непоясненої. Для аналізу ефективності розв'язку такої задачі

вводять коефіцієнт детермінації R2 ,

який визначають як частку поясненої і загальної

сум квадратів

ESS

1 RSS

 

R2

(1.17)

 

TSS

TSS

 

Для обчислення коефіцієнта детермінації можна скористатися також такими формулами:

 

 

ˆ

 

 

ˆ

 

 

 

2

 

 

 

2

 

S

 

 

S

 

 

 

 

 

xy

 

xy

 

R2

 

Sxx

 

 

 

 

.

 

 

 

 

 

 

 

 

Syy

Syy

SxxSyy

Коефіцієнт детермінації є частиною дисперсії залежної змінної, яку можна пояснити за рахунок моделі, або, іншими словами, завдяки мінливості незалежної змінної. Коефіцієнт детермінації є мірою щільності саме лінійного зв'язку між x та y .

Коефіцієнт детермінації завжди міститься в межах від нуля до одиниці. Чим ближче R2 до 1, тим точніше x пояснює y . Якщо R2 1, то це означає, що всі значення x та y

лежать на одній прямій. Якщо R2 0 , то лінія регресії горизонтальна пряма, що свідчить про те, що немає лінійного зв'язку між змінними.

Коефіцієнт детермінації можна вважати мірою згоди регресії. За інших рівних умов бажано, щоб коефіцієнт R2 був якнайбільшим.

1.5. Властивості оцінок методу найменших квадратів

Використання методу найменших квадратів дозволяє отримати незміщені оцінки

регресії. Показати це досить просто:

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

ˆ

 

n

xtyt

xt yt

 

 

 

n xtMyt xt Myt

 

 

 

M M

 

 

n xt2 xt 2

 

 

 

 

 

 

n xt2

xt 2

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

n xt ( xt ) xt ( xt

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

n xt2 xt 2

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

n xt n xt2

n xt xt 2

 

(n xt2

xt

2 )

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

.,

 

 

 

 

n xt2

xt 2

 

 

 

 

 

 

n xt2

xt 2

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

1

yt

 

1

ˆ

 

 

 

 

 

 

 

 

ˆ

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

M

 

n

xˆt My x M ( x ) x .

 

 

 

 

n

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

Можна також показати, що оцінки за звичайним методом найменших квадратів є не лише незміщеними оцінками коефіцієнтів регресії, але й ефективними в тому разі, якщо виконано всі наведені вище умови щодо збурень моделі (1.2).

17

Теорема Гауса Маркова. Для простої лінійної регресії з гомоскедастичними, некорельованими збуреннями оцінки МНК мають найменшу дисперсію в класі всіх лінійних незміщених оцінок.

Таким чином, якщо виконано п'ять припущень щодо збурень для простої лінійної регресії, то дисперсія оцінок буде найменшою серед усіх незміщених оцінок. Неважко показати, що

D 2 ;

Sxx

 

 

1

 

 

 

2

 

 

 

x

 

 

D 2

 

 

 

 

 

 

 

;

(1.18)

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

n

 

Sxx

 

 

cov( , ) 2 x .Sxx

Наведені формули не можна використовувати для перевірки гіпотез та інтервального оцінювання, оскільки до них входить невідомий параметр дисперсія збурень 2 . Можна показати, що незміщеною оцінкою 2 буде статистика

 

ˆ

2

 

RSS .

 

 

 

 

 

 

n 2

 

 

Якщо збурення нормально розподілені, то ˆ

ˆ

 

 

та також. Величина

 

 

 

 

 

n

ˆ 2

 

RSS

 

(n 2)

 

 

 

 

t 1

t

 

2

 

 

2

 

 

має 2

розподіл з n 2 степенями свободи. До того ж випадкова величина RSS не

залежить від ˆ та ˆ .

 

 

 

 

 

ˆ

 

 

 

 

 

 

 

 

 

 

 

 

ˆ

2

 

 

 

 

 

 

 

 

 

Оскільки ~ N( , Sxx ) , то

 

2

Sxx

має стандартний нормальний розподіл. Крім того,

 

 

 

 

 

 

 

 

 

 

 

 

 

RSS ~ 2

2

, і ці випадкові величини незалежні. Отже, частка

2

n

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

ˆ

 

 

 

 

 

ˆ

 

 

 

 

 

 

 

 

 

 

RSS

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

2 Sxx

 

(n 2)

2

 

 

 

 

 

 

 

 

 

 

 

 

 

2 Sxx

має розподіл Стьюдента з n 2 степенями свободи. Величина ˆ 2Sxx це оцінка дисперсії

, а ˆ 2Sxx оцінка середньоквадратичного відхилення, або стандартна похибка оцінки ˆ (від англійського standard еrror стандартна похибка). Уведемо позначення

 

 

ˆ

ˆ

2

Sxx

.

 

Тоді

s.e.( )

 

 

 

ˆ

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

~ t

 

 

(1.19)

 

 

ˆ

 

 

 

 

 

n 2

 

 

 

s.e.( )

 

 

 

 

 

Отриманий результат можна використовувати для перевірки різноманітних статистичних гіпотез.

1.6. Перевірка статистичних гіпотез у моделі простої лінійної регресії

Побудувавши й оцінивши регресію, слід упевнитися в тому, що її можливо застосовувати на практиці. Для цього регресія має бути адекватною, тобто задовільно описувати залежність між чинниками, які входять до моделі. З іншого боку, дослідників цікавить питання про можливість застосовувати модель у подальшому економічному аналізі. У такому разі слід гарантувати значущість усіх коефіцієнтів регресії.

18

Процес перевірки гіпотез доволі простий. Спочатку за умови прийняття гіпотези розраховують певну критичну статистику, яку порівнюють із теоретичним значенням з таблиці відповідного розподілу.

1.6.1. Перевірка адекватності регресії

Навіть якщо між y та x немає залежності, за будь-якою вибіркою спостережень може

здатися, що така залежність існує, хоча й слабка. Лише за випадковим збігом обставин вибіркова коваріація точно дорівнюватиме нулю, сигналізуючи про те, що немає суттєвої залежності. На практиці лише випадково коефіцієнт кореляції та коефіцієнт детермінації

R2 дорівнюватимуть нулю. Відомо, що при близьких до 0 значеннях коефіцієнта детермінації регресія зазвичай буде неадекватною. Проте як визначити межу, за якою класифікувати регресії?

Гіпотезу слід формулювати таким чином:

H0 : R2 0;

H1 : R2 0.

Адекватність регресії (прийняття гіпотези H1 ) означає, що незалежні змінні впливають на залежну змінну. Таким чином, у випадку простої лінійної регресії достатньо перевірити гіпотезу про ˆ 0 або R2 0 . Можна показати, що

R2

Fpr 1 1R2 ~ F 1,n 2

n 2

за умови, що 0 .

Таким чином, щоб перевірити гіпотезу, треба:

1.Обрахувати коефіцієнт детермінації регресії.

2.Обчислити значення Fpr .

3.Знайти в таблиці розподілу Фішера (див. додаток) статистику Fteor з 1 та n 2

степенями свободи для заданого рівня значущості (не плутати з коефіцієнтом у лінії регресії).

4. Порівняти знайдені величини: якщо Fpr Fteor , то модель слід уважати неадекватною, якщо ж F Fteor , то модель адекватна.

1.6.2. Гіпотеза про значущість кореляції між змінними регресії

Ще одним способом перевірки доказу існування залежності між змінними регресії є оцінювання коефіцієнта кореляції між ними. Щільність зв'язку між змінними визначає лінійний коефіцієнт парної кореляції, який знаходять за формулою

 

 

 

 

 

 

 

 

 

 

 

 

 

ˆ x

 

 

yx

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

rxy

 

x

y

,

 

 

 

 

 

 

 

 

 

 

 

 

y

 

x y

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

де

 

 

1 x y ; 2

 

1 (x

 

 

 

)2 ; 2

 

1 (y

 

 

)2 .

 

yx

 

 

t

x

y

 

 

 

 

n

t t x

 

n

 

 

y

 

n

 

t

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

Очевидно, що величина коефіцієнта парної кореляції завжди за абсолютною величиною не перевищує 1 ( 1 rxy 1). Що ближче це значення до 1, то сильніший

прямий зв'язок між змінними; що ближче це значення до -1, то сильніший обернений зв'язок між змінними. Зв'язок слід уважати слабким, якщо значення rxy близьке до 0.

На практиці для перевірки гіпотези

H0 : rxy 0;

H1 : rxy 0

слід обрахувати статистику

19

tpr

 

rxy

1 r 2

 

 

xy

n 2

і порівняти зі статистикою Стьюдента з n 2 степенями свободи: tteor t n 2,1 1.

Якщо t tteor , то гіпотезу H0 можна прийняти, тобто залежність між змінними x та y статистично незначуща.

1.6.3. Перевірка гіпотез про коефіцієнти регресії

Стандартною процедурою є перевірка гіпотези про те, що коефіцієнт нахилу регресійної прямої дорівнює нулю. Прийняття цієї гіпотези означає, що незалежна

змінна не має впливу на залежну (не має впливу в межах лінійної моделі, тобто не виключено, що насправді між змінними існує залежність, але виражена іншою функціональною формою).

Пряму й альтернативну гіпотези формулюють таким чином:

H0 : 0;

H1 : 0.

Статистика для перевірки гіпотези має вигляд

tpr s.eˆ.(ˆ)

Значення цієї статистики зазвичай автоматично підраховують у комп'ютерних програмах із регресійного аналізу.

Отриману величину порівнюють зі значенням tteor , яке знаходять із таблиці розподілу Стьюдента з n 2 степенями свободи й рівнем значущості 1 . Якщо t tteor , то гіпотезу

H0 приймають, якщо ж t tteor , то гіпотезу H0 відхиляють.

Аналогічно перевіряють гіпотезу про рівність коефіцієнта регресії довільному значенню m. Зокрема, для перевірки гіпотези H0 : m використовують таку статистику:

t ˆ m . s.e.(ˆ)

Отриману величину слід порівняти зі значенням tteor , знайденим із таблиці розподілу

Стьюдента з n 2 степенями свободи та рівнем значущості 1 . Якщо

t tteor , то

гіпотезу H0 приймають, якщо ж t tteor , то гіпотезу H0 відхиляють.

 

Показані вище розрахунки свідчать, що якщо оцінка коефіцієнта ˆ міститься в

певному інтервалі, то це гарантує прийняття відповідної гіпотези. Величину такого надійного інтервалу неважко обрахувати:

для коефіцієнта : [ˆ s.e.(ˆ ) tteor; ˆ s.e.(ˆ ) tteor ],

для коефіцієнта

:

ˆ

ˆ

ˆ

ˆ

.

(1.20)

[ s.e.( ) tteor ; s.e.( ) tteor ]

Величину tteor знаходять із таблиці розподілу Стьюдента з n 2 степенями свободи та рівнем надійності 1 . Будь-яке гіпотетичне значення оцінки ˆ * , що задовольняє

співвідношенню (1.20), буде автоматично сумісним з оцінкою ˆ , іншими словами, не

суперечитиме їй. Множина всіх цих значень, визначених як інтервал між нижньою й верхньою границями нерівності, відома як надійний інтервал для величини .

1 У всіх формулах цього підручника використано двобічний розподіл Стьюдента. Як відомо, усі статистичні програми розраховують однобічний розподіл Стьюдента. Щоб уніфікувати відповіді, під час використання

компютерних програм треба застосовувати модифікований рівень надійності: замість величини 1 слід використовувати 1 2 .

20

Соседние файлы в предмете [НЕСОРТИРОВАННОЕ]