Добавил:
Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:

книги / Эконометрика. Начальный курс

.pdf
Скачиваний:
15
Добавлен:
20.11.2023
Размер:
21.93 Mб
Скачать

Упражнения

61

2 .11. Приведите пример набора данных (Xt, У*), для которого решение задачи поиска параметров а, 0, минимизирующих функционал

F= ' £ \ Y t - { a + 0Xt)\, t=i

не единственно.

2.12. Рассмотрим модель регрессии на константу

yt = a + et, t = l,...,n .

а) Найдите оценки метода наименьших квадратов для а и а 2. б) Найдите дисперсию оценки а.

в) Покажите, что статистика —— —имеет распределение t(n —1). $з

г) Чему равен коэффициент детерминации А2?

2.13. Рассмотрим модель регрессии без константы

Yt = 0 X t + £t. £ = 1 ,..., n.

а) Найдите оценки метода наименьших квадратов для 0 и о3 .

б) Найдите дисперсию оценки 0.

в) Покажите, что статистика - — - имеет распределение £(n - 1).

ч

г) Приведите примеры данных, для которых: значение коэффици­ ента А2, рассчитанное по формуле А2 = RSS/TSS, отличается от значения А2, рассчитанного по формуле Л2 = 1-ESS/TSS; значе­ ние коэффициента А2, рассчитанное по формуле А2 = RSS/TSS, больше 1; значение коэффициента А2, рассчитанное по формуле А2 = 1 - ESS/TSS, меньше 0.

2.14. Менеджер новой чебуречной не уверен в правильности выбран­ ной цены на чебуреки, поэтому в течение 12 недель он варьирует це­ ну и записывает количество проданных чебуреков. Полученные данные приведены в таблице 2.1 (£ — номер недели, qt — количество проданных чебуреков, pt — цена одного чебурека (руб.)).

а) Оцените параметры модели

lngt = a + 0\apt + et, « = 1, . . . , 12.

62 Гл. 2. Модель парной регрессии

б) Используя полученные оценки коэффициентов, найдите опти­ мальную в смысле максимума выручки от продаж цену чебурека.

'Млица 2.1

t

P t

4 t

t

P t

 

1

12.3

795

7

12.8

714

2

11.5

915

8

9.9

1180

3

11.0

965

9

12.2

851

4

12.0

892

10

12.5

779

5

13.5

585

11

13.0

625

6

12.5

644

12

10.5

1001

2.15. Пусть = £ е2/ п и 3QLS = !£et / (л - 2) —оценки методов максимального правдоподобия и наименьших квадратов для дисперсии ошибок а2 в классической модели парной регрессии Yt = Pij-faXt + £t. t = 1,... ,n, et ~ N (O.cr2).

а) Найдите дисперсию и среднеквадратичное отклонение (MSE(d) = Е((0 —в)2)) каждой из двух оценок.

б) Какая из двух оценок обладает наименьшей дисперсией? Наи­ меньшим среднеквадратичным отклонением?

2.16. Так называемая кривая Филлипса описывает связь темпа роста зарплаты и уровня безработицы. А именно,

Swt —01+ 0г— + £t,

щ

где wt — уровень заработной платы, Swt = 100(wt - wt-\)/w t-iтемп роста зарплаты (в процентах) и щ - процент безработных в год t. Те­ ория предполагает, что 0 \ < 0 и 02 > 0.

Используя данные для страны из таблицы 2.2, ответьте на следую­ щие вопросы:

а)

Найдите оценки коэффициентов уравнения и проверьте наличие

 

значимой связи между Sw и и.

б)

Найдите «естественный уровень безработицы»,т. е. такой уровень

 

безработицы, при котором Sw = 0.

в)

Когда изменения в уровне безработицы оказывали наибольшее

 

(наименьшее) влияние на темп изменения зарплаты?

г)

Найдите 95%-ные доверительные интервалы для 0i и 02.

Упражнения

63

 

 

 

 

 

Таблица 2.2

Год t

Wt

u t

Год t

w,

Щ

1

1.62

1.0

10

2.66

1.8

2

1.65

1.4

11

2.73

1.9

3

1.79

1.1

12

2.80

1.5

4

1.94

1.5

13

2.92

1.4

5

2.03

1.5

14

3.02

1.8

6

2.12

1.2

15

3.13

1.1

7

2.26

1.0

16

3.28

1.5

8

2.44

1.1

17

3.43

1.3

9

2.57

1.3

18

3.58

1.4

2.17. В таблице 2.3 представлены расходы на агрегированное потреб­

ление У и агрегированный располагаемый доход X

в некоторой нацио­

нальной экономике в течение 12 лет с 1986 по 1997 г.

 

а)

Изобразите графически зависимость Y от X и определите, есть

 

ли приближенная линейная зависимость У от X .

 

б)

Вычислите парную регрессию агрегированного потребления У на

 

X

по данным, представленным в таблице 2.3.

 

 

в)

Вычислите в2,в |,в |-

 

 

 

Таблица 2.3

 

 

t

 

 

 

t

Год

Yt

x t

Год

Yt

Xt

1986

1

152

170

1992

7

177

200

1987

2

159

179

1993

8

179

207

1988

3

162

187

1994

9

184

215

1989

4

165

189

1995

10

186

216

1990

5

170

193

1996

11

190

220

1991

6

172

199

1997

12

191

225

2.18.

Рассмотрим регрессию, построенную в упражнении 2.17.

 

а)

Сформулируйте нулевую (основную) и альтернативную гипотезы

 

при проверке статистической значимости коэффициентов регрес­

 

сии.

 

 

 

 

 

 

б)

Какое распределение имеют оценки а и /3?

 

 

в)

Какое распределение используется при проверке статистической

 

значимости а

и /3?

 

 

 

 

 

г)

Чему равно число степеней свободы?

 

 

 

д)

Проверьте на 5%-ном уровне значимость коэффициентов а а /3.

64

Гл 2. Модель парной регрессии

е)

Постройте 95%-ный доверительный интервал для коэффициентов

 

от и /? в регрессии упражнения 2.17.

 

ж)

Вычислите коэффициент детерминации, используя

равенства

 

R 2 = RSS/TSS и Я2 = 1 - ESS/TSS.

 

2.19.

Дана модель парной регрессии Yt = а 4- 0 X t + е«. t

= 1,... ,п,

для которой выполнены стандартные условия классической линейной модели. Известно, что п = 2т. Все множество наблюдений (Yt, X t) раз­ бито на две группы а и b по т наблюдений в каждой группе. Обозна­ чим Х я,Хь,ТГ0,Уь выборочные средние наблюдений X.Y по группам а, Ь, соответственно. В_качестве оценки параметра 0 берется величина

Р~ ( 7 а - У ь ) / ( Х а - Х ь ) .

а) Найдите Е(/3) и V(/3).

б) Каким должно быть разбиение наблюдений на группы а и Ь, что­ бы дисперсия V(/3) была минимальной?

2.20. Пусть Yt = 0 X t + еч, t = 1, .. ,п, где E(et) = 0, и матрица кова­ риаций вектора е известна. При каких условиях оценки

являются наилучшими среди несмещенных линейных оценок парамет­ ра/??

2.21. Проведены две регрессии:

Yt = ot + RXt + $t и Yt — cl + ffXt +

t = 1,...,T ,

где x t — X t —X.

а) По известным МНК-оценкам a, 0 параметров a, 0 в первой ре­ грессии найдите МНК-оценки 3', /?' параметров а', 0' во второй peipeccuH.

б) Найдите Cov(3',j9').

2.22. В таблице 2.4 приведены ежегодные значения денежной массы и национального дохода некоторой гипотетической страны (все величины выражены в миллиардах кварков (название национальной валюты)).

Упражнения

 

 

 

 

 

65

Год

Денежная

Нац.

Год

 

Таблица 2.4

Денежная

Нац.

 

масса

доход

 

масса

 

ДОХОД

1981

2.0

5.0

1986

4.0

 

7.7

1982

2.5

5.5

1987

4.2

 

8.4

1983

3.2

6.0

1988

4.6

 

9.0

1984

3.6

7.0

1989

4.8

 

9.7

1985

3.3

7.2

1990

5.0

 

10.0

а) Проведите регрессию национального дохода (У)

на денежную

массу (X) и константу.

 

 

 

 

б) Постройте 95%-ный доверительный интервал для оцениваемых параметров. Можете ли вы отвергнуть гипотезу 0 = 0? 0 = 1?

2.23. Два исследователя, работая независимо друг от друга, изучают одну и ту же регрессионную модель

Yt = а + 0Xt + €t>

для которой выполнены все условия классической модели. В таблице 2.5 приведены результаты, полученные и м и на основе независимых выбо­

рок:

Таблица 2.5

Выборка 1

Выборка II

п = 20

 

п = 20

£ * < = 100

£

Xt = 200

£ * 2 = 600

£

Л? = 2400

£У« = 500

£Г«=500

01 = 2

 

0п = 2.5

Узнав о работе друг друга, они решают вывести единую оценку параметра 0. Первый исследователь предлагает взять

0 = \ф х + 0и).

Второй исследователь считает, что весовые коэффициенты первой и второй оценок выбраны неэффективно, и можно построить несмещен­ ную оценку с меньшей дисперсией. Научный руководитель этих иссле­ дователей утверждает, что он знает способеще улучшить общуюоценку.

66 Гл. 2. Модель парной регрессии

а) Какую оценку предлагает использовать второй исследователь? б) Какую оценку предлагает использовать научный руководитель?

Оцените улучшение точности оценок пп. а), б) по сравнению с оцен­ кой 0.

2.24. Предположим, что модель У* = а + 0Xt + е£, t = 1 ,...,п, удовле­ творяет условиям классической регрессии. Пусть а, 0 — оценки мето­ да наименьших квадратов. Оценка 0 получена по методу наименьших квадратов при дополнительном (вообще говоря, неверном) предположе­ нии, что о = 0 .

а) Найдите МНК-оценку 0. При каких условиях она является несме­ щенной оценкой параметра 07

б) Найдите дисперсию оценки 0, сравните ее с дисперсией оценки 0. в) Обсудите, какую из двух оценок лучше использовать.

2.25. Рассмотрим модель парной регрессии Yt = а + 0Xt + et. Пусть Zt = X f. Рассмотрим следующую оценку параметра 0:

Q T L i M - W t

а) Покажите, что оценка 0 несмещенная.

б) Найдите дисперсию оценки 0.

в) Не повторяя доказательство теоремы Гаусса-Маркова, непосред­ ственно проверьте, что V(/3) > V(/?0 LS)-

Глава 3

Модель множественной регрессии

Естественным обобщением линейной регрессионной модели с дву­ мя переменными (см. п. 2.3) является многомерная регрессионная модель (multiple regression model), или модель множественной ре­ грессии:

Vt = Pi + fo xa + ■■■ + 0k*tk + £и

t = 1,... ,n,

 

или

 

 

 

Vt — Pixti + Pixt2 H------ 1- Pkxtk + et,

t = l , . . . , n ,

 

(3.1)

где Xtp — значения регрессора xp в наблюдении t, a xti

=

1, t =

1 .. .. ,n. С учетом этого замечания мы не будем далее различать модели вида (3.1) со свободным членом или без свободного члена.

3.1.Основные гипотезы

Гипотезы, лежащие в основе модели множественной регрессии, являются естественным обобщением модели парной регрессии (см. п. 2.3):

1- Vt = Pixti + PiXt2 + --- 1- PkXtk + et, t = 1,... ,n — специфи­ кация модели.

67

68

Гл. 3. Модель множественной регрессии

2.xti , . . . , x tk —детерминированные величины. Векторы х а = (жь,..., xns)', s = 1, ... , к линейно независимы в Д".

За.

Eet = 0 , Е(е2) = V(et) = <т2 — не зависит от £.

3b.

E(et£s) = 0 при t ф а — статистическая независимость

 

(некоррелированность) ошибок для разных наблюдений.

 

Часто добавляется следующее условие.

Зс. Ошибки £t, t =

1, . . . , п имеют совместное нормальное рас­

 

пределение: et

N(0, <т2).

В этом случае модель называется нормальной линейной ре­ грессионной (classical normal linear regression model).

Гипотезы, лежащие в основе множественной регрессии, удобно записать в матричной форме, которая главным образом и будет

использоваться в дальнейшем.

 

 

 

Пусть

у

 

обозначает

n

х

1 матрицу

(вектор-столбец)

(Уь-•• .2/n)',

 

Р = (/?1, •■.,&)'

к х 1 вектор

коэффициентов;

е = (с ь ... ,£„)' —п х 1 вектор ошибок;

 

*11

.

*lfc

 

 

 

 

X =

 

 

— и х к матрицу объясняющих переменных.

1

*nfc.

 

 

 

 

Столбцами матрицы X

являются п х 1 векторы регрессоров

х 3 =

(xis,..., хпз)', 5 = 1,...,/;. Условия 1-3 в матричной записи

выглядят следующим образом:

 

 

1.

у = Х(3 + е — спецификация модели;

 

2.

X

- детерминированная

матрица,

имеет максимальный

 

ранг к;

 

 

За,Ь. Е(е) = О; V(e) = Е(ее') = <r2J n;

 

дополнительное условие:

 

 

Зс.

е ~

JV(0 ,cr2J n), те. е -

нормально

распределенный слу­

 

чайный вектор со средним 0 и матрицей ковариаций <г2/ п

 

(нормальная линейная регрессионная модель).

3.2. Метод наименьших квадратов. Теорема Гаусса-Маркова

69

3.2.Метод наименьших квадратов. Теорема Гаусса-Маркова

Как и в случае регрессионного уравнения с одной переменной (см. п. 2.2 ), целью метода является выбор вектора оценок /3, миними­ зирующего сумму квадратов остатков et (т. е. квадрат длины век­ тора остатков е):

е = у - у = у - Х(3, ESS = Ее? = е'е —♦ min.

Выразим е'е через X и /3:

е'е = (у - Х р ) '( у - Х р ) = у'у - у ' Х р - р 'Х ' у + р ' Х ' Х р

= у'у - 2

$ Х ' у + р ' Х ' Х р .

(3.2)

Необходимые условия минимума ESS получаются дифферен­ цированием (3.2) по вектору /3 (см. (ЛА.22), (ЛА.24)):

= - 2 Х ' у + 2 Х ' Х р = О,

(3.3)

др

откуда, учитывая обратимость матрицы Х ' Х в силу условия 2 (приложение ЛА, п. 10), находим оценку метода наименьших квадратов:

3oLS = (•Х ' Х ) - 1Х ' у .

(3.4)

(Сравните с аналогичной формулой (2.8), полученной для регрес­ сионного уравнения с одной независимой переменной.)

Покажем, что, как и в случае одного регрессора, (3.3) означает, что вектор остатков е ортогонален всем независимым переменным * 1,... ,х*. (столбцам матрицы X) . Условие ®'хе = • • • = х'ке — 0 эквивалентно равенству Х 'е = О. Действительно,

Х 'е = Х ' ( у - ХР ) = Х ' у - Х ' Х Р

= Х ' у - Х ' Х { Х ' Х ) - хХ ' у = 0.

(3.5)

Получим полезную в дальнейшем формулу для суммы квад­ ратов остатков

е'е = у'у - 2р'Х 'у + р ' Х ' Х р

= У'У - р ' р Х ' у - Х ' Х ( Х ' Х Г хХ ' у ) ш у'у - р'Х'у . (3.6)

70

Гл. 3. Модель множественной регрессии

Геометрическая

инт ерпрет ация в основном совпадает с

геометрической интерпретацией регрессионного уравнения с од­ ной независимой переменной (см. п. 2.2). Представим у, х \ , ... ,Xk как векторы в п-мерном евклидовом пространстве Rn. Векторы ® ь п о р о ж д а ю т fc-мерное подпространство к.

Вектор у = Х(3 есть ортогональная проекция вектора у на гиперплоскость 7Г.

Вектор остатков е = у - у ортогонален подпространству я-. Как и в случае регрессионного уравнения с одной независи­

мой переменной (см. п.2.4), можно показать, что оценка метода наименьших квадратов является оптимальной.

Теорема Гаусса-М аркова. Предположим, что:

1. у = Х(3 + £’>

2 . X — детерминированная п х к матрица, имеющая макси­ мальный ранг к\

3 Е(е) = 0 ; V(e) = Е(ее') = о Ч п.

Тогда оценка метода наименьших квадратов /3OLS = (Х 'Х )~ хХ ' у является наиболее эффективной смысле наи­ меньшей дисперсии) оценкой в классе линейных {по у) несмещен­ ных оценок (Best Linear Unbiased Estimator, BLUE).

Д о к а з а т е л ь с т в о . Обозначим A =

( X ' X ) ~ l X',

Pots — A y . Любую другую линейную оценку

вектора пара­

метров (3 можно без ограничения общности представить в виде: Ь = (А + С)у, где С —некоторая к х п матрица.

1. Покажем, что МНК-оценка (3.4) является несмещенной оценкой /3:

ЕЗоьз = Е { ( Х ' Х Г ' Х ' у ) = ( Х ' Х Г 1Х'Е(у)

= ( Х ' Х У ' Х ’Щ Х Р + е)

= ( Х ' Х ) - 1Х ' Х р + ( Х ' Х у ' Х ' Е е = /3.

(3.7)

Из условия несмещенности оценки Ь получаем, что для всех /3 справедливо соотношение

/3 = ЕЬ = + С )Еу = (А + С)Х(3 = (I + С Х ) р ,