Добавил:
Upload Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:
Leschinsky_Ekonometriya.doc
Скачиваний:
15
Добавлен:
19.02.2016
Размер:
3.36 Mб
Скачать

2.2. Лшшна модель з двома зм1нними

У загалыному випадку парна лшшна регресЫ е лшшною функщею м"ж залежною зм"нною Y i одн"ею пояснюючою зм"нною X:

Y = а0 + a1X. (2.1)

Сшвввдношення (2.1) називаеться теоретичною лтшною регре-айною моделлю; a0 i a1теоретичт параметри (теоретичт коеф1-щенти) регреси.

Зазначимо, що принциповою в цьому pa3i е лшшшсть за парамет­рами a0 i ai piвняння (2.1).

Щоб визначити значення теоретичних коефiцiентiв регреси, необ-xiдно знати й використовувати ва значення змiнних X i Y генераль-но" cукупноcтi, що практично неможливо. Тому за вибipкою обмеже-ного обсягу будують так зване емтричне ргвняння регреси, у якому коефнцентами е оцшки теоретичних коефппенив регресГх:

Y = a0 + aiX, (2.2)

де ao i <21 — оцiнки нeвiдомиx паpамeтpiв ao i ai.

Через pозбiжнicть статистично! бази для генерально! сукупносп та вибipки оцiнки <50 i <51 практично завжди вiдpiзняютьcя вщ дiйcниx значень коeфiцiентiв ao i що призводить до pозбiжноcтi eмпipичноl та теоретично! лiнiй регреси. Piзнi вибipки з однiеl й пе! само! генерально'1 cукупноcтi звичайно зумовлюють piзнi оцiнки.

Можливе сшввщношення мiж теоретичним i eмпipичним piвнян-нями регреси схематично зображено на рис. 2.1.

Задач1 лшшного регресшного анал1зу полягають у тому, щоб за на-явними статистичними даними (xi, уг), i = 1, 2,..., n, для змшних X i Y:

а) отримати найкращд оцiнки <20, щ невiдомих параметрiв а0 i щ:

б) перевiрити статистичнi гiпотези про параметри модели

в) перевiрити, чи досить добре модель узгоджуеться 3i статистич- ними даними (адекватшсть моделi даним спостережень).

Для вщображення того факту, що кожне шдивщуальне значення yi вiдхиляeться вiд вiдповiдного умовного математичного сподiван-

ня, у модель уводять випадковий доданок ut:

yi = M(Y | X = x;) + ui = a0 + a1 x; + щ.

Отже, iндивiдуальнi значення yi подають у виглядi суми двох

компонент — систематично! (ао + ) i випадково! (uf). Причина появи останньо! досить докладно розглядалася ранiше. Таким чином, регресшне рiвняння набувае вигляду

Y = а0 + а1Х + u. (2.3)

Завдання полягае в тому, щоб за конкретною вибiркою (xi, yi), i = 1, 2, к, n, знайти такi значення оцшок невiдомих параметрiв ао i щоб побудована лiнiя регресп була найкращою в певному розумшш серед уах iнших прямих. 1ншими словами, побудована пряма мае бути "найближчою" до точок спостережень за !х сукупнiстю.

Miрою якостi знайдених оцшок можуть бути визначеш композищ! вiдхилень щ, i = 1, 2,n. Наприклад, коефщденти ао i а1 рiвняння регресп можуть бути оцшеш за умови мiнiмiзацi! однiе! з таких сум:

nn

- yi) =

n

I(yi

i=1

(20 Cl1xi);

(2.4)

nn

2) Iui=Iyi

i=1i=1

- yi- =

n

Iyi-

i=1

alXi | ]

(2.5)

nn

3) I u2 =I ( у--

i=1i=1

n

=I(yi

i=1

- - >21xi)2.

(2.6)

Однак перша сума не може бути Mipoio якост знайдених ощнок

n

через те, що юнуе безл1ч прямих (зокрема, Y = y ), для яких ^ щ = 0

i=i

(доведення цього твердження виноситься як вправа).

Метод визначення ощнок коефщенпв за умови мппм1зацп дру-го! суми називаеться методом найменшихмодулгв (МНМ).

Найпоширешшим i теоретично обгрунтованим е метод визначен­ня коефшденпв, при якому мiнiмiзуеться третя сума. Biн дютав на-зву методу найменших квадратгв (МНК).

Останнiй метод oцiнювання паpаметpiв найпpoстiший з обчис-лювально! точки зору. Кpiм того, oцiнки коефщенив регреси!, знайденi за МНК при визначених передумовах, мають ряд опти-мальних властивостей (незмiщенiсть, ефективнiсть, обгрунто-ванiсть).

Серед iнших метoдiв визначення ощнок коефшденив регресп ви-окремимо метод моменпв (ММ) i метод максимально! пpавдoпoдiб-нoстi (ММП).

Соседние файлы в предмете [НЕСОРТИРОВАННОЕ]