к паре
.docxПараметры уравнения множественной регрессии
1. Оценка уравнения регрессии. Определим вектор оценок коэффициентов регрессии. Согласно методу наименьших квадратов, вектор s получается из выражения: s = (XTX)-1XTY Уравнение регрессии (оценка уравнения регрессии) Y = -3017.4-13.42X1 + 6.67X2-6.48X3 + 12.24X4 + 30.48X5 Коэффициент ранговой корреляции Спирмена. Присвоим ранги признаку ei и фактору X.
X |
ei |
ранг X, dx |
ранг ei, dy |
1 |
28.36 |
1 |
7 |
2 |
34.51 |
2 |
10 |
3 |
11.02 |
3 |
3 |
4 |
48.1 |
4 |
15 |
5 |
35.82 |
5 |
11 |
6 |
25.61 |
6 |
6 |
7 |
42.16 |
7 |
13 |
8 |
29.18 |
8 |
8 |
9 |
47.88 |
9 |
14 |
10 |
23.75 |
10 |
5 |
11 |
29.25 |
11 |
9 |
12 |
51.31 |
12 |
16 |
13 |
23.68 |
13 |
4 |
14 |
3.12 |
14 |
1 |
15 |
8.55 |
15 |
2 |
16 |
36.88 |
16 |
12 |
Поскольку решение получилось объемным, то его можно сохранить в формате MS Word или Посмотреть решение.
Начало формы
Конец формы
Word: Требуется авторизация Подробнее о Word
Уравнение множественной регрессии. Уравнение множественной регрессии может быть представлено в виде: Y = f(β , X) + ε где X = X(X1, X2, ..., Xm) - вектор независимых (объясняющих) переменных; β - вектор параметров (подлежащих определению); ε - случайная ошибка (отклонение); Y - зависимая (объясняемая) переменная. теоретическое линейное уравнение множественной регрессии имеет вид: Y = β0 + β1X1 + β2X2 + ... + βmXm + ε β0 - свободный член, определяющий значение Y, в случае, когда все объясняющие переменные Xj равны 0. Прежде чем перейти к определению нахождения оценок коэффициентов регрессии, необходимо проверить ряд предпосылок МНК. Предпосылки МНК. 1. Математическое ожидание случайного отклонения εi равно 0 для всех наблюдений (M(εi) = 0). 2. Гомоскедастичность (постоянство дисперсий отклонений). Дисперсия случайных отклонений εi постоянна: D(εi) = D(εj) = S2 для любых i и j. 3. отсутствие автокорреляции. 4. Случайное отклонение должно быть независимо от объясняющих переменных: Yeixi = 0. 5. Модель является линейное относительно параметров. 6. отсутствие мультиколлинеарности. Между объясняющими переменными отсутствует строгая (сильная) линейная зависимость. 7. Ошибки εi имеют нормальное распределение. Выполнимость данной предпосылки важна для проверки статистических гипотез и построения доверительных интервалов. Эмпирическое уравнение множественной регрессии представим в виде: Y = b0 + b1X1 + b1X1 + ... + bmXm + e Здесь b0, b1, ..., bm - оценки теоретических значений β0, β1, β2, ..., βm коэффициентов регрессии (эмпирические коэффициенты регрессии); e - оценка отклонения ε. При выполнении предпосылок МНК относительно ошибок εi, оценки b0, b1, ..., bm параметров β0, β1, β2, ..., βm множественной линейной регрессии по МНК являются несмещенными, эффективными и состоятельными (т.е. BLUE-оценками). Для оценки параметров уравнения множественной регрессии применяют МНК. 1. Оценка уравнения регрессии. Определим вектор оценок коэффициентов регрессии. Согласно методу наименьших квадратов, вектор s получается из выражения: s = (XTX)-1XTY К матрице с переменными Xj добавляем единичный столбец:
1 |
1 |
4 |
15 |
17 |
100 |
1 |
2 |
4.8 |
14.8 |
17.3 |
98.4 |
1 |
3 |
3.8 |
15.2 |
16.8 |
101.2 |
1 |
4 |
8.7 |
15.5 |
16.2 |
103.5 |
1 |
5 |
8.2 |
15.5 |
16 |
104.1 |
1 |
6 |
9.7 |
16 |
18 |
107 |
1 |
7 |
14.7 |
18.1 |
20.2 |
107.4 |
1 |
8 |
18.7 |
13 |
15.8 |
108.5 |
1 |
9 |
19.8 |
15.8 |
18.2 |
108.3 |
1 |
10 |
10.6 |
16.9 |
16.8 |
109.2 |
1 |
11 |
8.6 |
16.3 |
17 |
110.1 |
1 |
12 |
6.5 |
16.1 |
18.3 |
110.7 |
1 |
13 |
12.6 |
15.4 |
16.4 |
110.3 |
1 |
14 |
6.5 |
15.7 |
16.2 |
111.8 |
1 |
15 |
5.8 |
16 |
17.7 |
112.3 |
1 |
16 |
5.7 |
15.1 |
16.2 |
112.9 |
Матрица Y
126 |
137 |
148 |
191 |
274 |
370 |
432 |
445 |
367 |
367 |
321 |
307 |
331 |
345 |
364 |
384 |
Матрица XT
1 |
1 |
1 |
1 |
1 |
1 |
1 |
1 |
1 |
1 |
1 |
1 |
1 |
1 |
1 |
1 |
1 |
2 |
3 |
4 |
5 |
6 |
7 |
8 |
9 |
10 |
11 |
12 |
13 |
14 |
15 |
16 |
4 |
4.8 |
3.8 |
8.7 |
8.2 |
9.7 |
14.7 |
18.7 |
19.8 |
10.6 |
8.6 |
6.5 |
12.6 |
6.5 |
5.8 |
5.7 |
15 |
14.8 |
15.2 |
15.5 |
15.5 |
16 |
18.1 |
13 |
15.8 |
16.9 |
16.3 |
16.1 |
15.4 |
15.7 |
16 |
15.1 |
17 |
17.3 |
16.8 |
16.2 |
16 |
18 |
20.2 |
15.8 |
18.2 |
16.8 |
17 |
18.3 |
16.4 |
16.2 |
17.7 |
16.2 |
100 |
98.4 |
101.2 |
103.5 |
104.1 |
107 |
107.4 |
108.5 |
108.3 |
109.2 |
110.1 |
110.7 |
110.3 |
111.8 |
112.3 |
112.9 |
Умножаем матрицы, (XTX)
16 |
136 |
148.7 |
250.4 |
274.1 |
1715.7 |
136 |
1496 |
1301.3 |
2141.7 |
2325.7 |
14892.9 |
148.7 |
1301.3 |
1744.03 |
2326.89 |
2564.55 |
16036.2 |
250.4 |
2141.7 |
2326.89 |
3936 |
4302.45 |
26867.79 |
274.1 |
2325.7 |
2564.55 |
4302.45 |
4715.15 |
29394.46 |
1715.7 |
14892.9 |
16036.2 |
26867.79 |
29394.46 |
184282.13 |
В матрице, (XTX) число 16, лежащее на пересечении 1-й строки и 1-го столбца, получено как сумма произведений элементов 1-й строки матрицы XT и 1-го столбца матрицы X Умножаем матрицы, (XTY)
4909 |
46707 |
50519.4 |
77211.1 |
84495.2 |
532080.2 |
Находим обратную матрицу (XTX)-1
690.564 |
6.275 |
1.189 |
2.284 |
-1.213 |
-7.179 |
6.275 |
0.0621 |
0.0105 |
0.0188 |
-0.000157 |
-0.0671 |
1.189 |
0.0105 |
0.00522 |
0.0101 |
-0.00742 |
-0.0126 |
2.284 |
0.0188 |
0.0101 |
0.144 |
-0.0955 |
-0.0294 |
-1.213 |
-0.000157 |
-0.00742 |
-0.0955 |
0.12 |
0.00678 |
-7.179 |
-0.0671 |
-0.0126 |
-0.0294 |
0.00678 |
0.0766 |
Вектор оценок коэффициентов регрессии равен Y(X) = (XTX)-1XTY =
-3017.396 |
-13.419 |
6.672 |
-6.477 |
12.238 |
30.476 |
Уравнение регрессии (оценка уравнения регрессии) Y = -3017.4-13.42X1 + 6.67X2-6.48X3 + 12.24X4 + 30.48X5 2. Матрица парных коэффициентов корреляции R. Число наблюдений n = 16. Число независимых переменных в модели равно 5, а число регрессоров с учетом единичного вектора равно числу неизвестных коэффициентов. С учетом признака Y, размерность матрицы становится равным 7. Матрица, независимых переменных Х имеет размерность (16 х 7). Матрица, составленная из Y и X
1 |
126 |
1 |
4 |
15 |
17 |
100 |
1 |
137 |
2 |
4.8 |
14.8 |
17.3 |
98.4 |
1 |
148 |
3 |
3.8 |
15.2 |
16.8 |
101.2 |
1 |
191 |
4 |
8.7 |
15.5 |
16.2 |
103.5 |
1 |
274 |
5 |
8.2 |
15.5 |
16 |
104.1 |
1 |
370 |
6 |
9.7 |
16 |
18 |
107 |
1 |
432 |
7 |
14.7 |
18.1 |
20.2 |
107.4 |
1 |
445 |
8 |
18.7 |
13 |
15.8 |
108.5 |
1 |
367 |
9 |
19.8 |
15.8 |
18.2 |
108.3 |
1 |
367 |
10 |
10.6 |
16.9 |
16.8 |
109.2 |
1 |
321 |
11 |
8.6 |
16.3 |
17 |
110.1 |
1 |
307 |
12 |
6.5 |
16.1 |
18.3 |
110.7 |
1 |
331 |
13 |
12.6 |
15.4 |
16.4 |
110.3 |
1 |
345 |
14 |
6.5 |
15.7 |
16.2 |
111.8 |
1 |
364 |
15 |
5.8 |
16 |
17.7 |
112.3 |
1 |
384 |
16 |
5.7 |
15.1 |
16.2 |
112.9 |
Транспонированная матрица.
1 |
1 |
1 |
1 |
1 |
1 |
1 |
1 |
1 |
1 |
1 |
1 |
1 |
1 |
1 |
1 |
126 |
137 |
148 |
191 |
274 |
370 |
432 |
445 |
367 |
367 |
321 |
307 |
331 |
345 |
364 |
384 |
1 |
2 |
3 |
4 |
5 |
6 |
7 |
8 |
9 |
10 |
11 |
12 |
13 |
14 |
15 |
16 |
4 |
4.8 |
3.8 |
8.7 |
8.2 |
9.7 |
14.7 |
18.7 |
19.8 |
10.6 |
8.6 |
6.5 |
12.6 |
6.5 |
5.8 |
5.7 |
15 |
14.8 |
15.2 |
15.5 |
15.5 |
16 |
18.1 |
13 |
15.8 |
16.9 |
16.3 |
16.1 |
15.4 |
15.7 |
16 |
15.1 |
17 |
17.3 |
16.8 |
16.2 |
16 |
18 |
20.2 |
15.8 |
18.2 |
16.8 |
17 |
18.3 |
16.4 |
16.2 |
17.7 |
16.2 |
100 |
98.4 |
101.2 |
103.5 |
104.1 |
107 |
107.4 |
108.5 |
108.3 |
109.2 |
110.1 |
110.7 |
110.3 |
111.8 |
112.3 |
112.9 |