![](/user_photo/2706_HbeT2.jpg)
3.2.2. Мультиколлинеарность
Под мультиколлинеарностью понимается высокая взаимная коррелированность объясняющих переменных.
При построении многофакторных моделей должно соблюдаться требование возможно меньшей коррелированности включенных в модель признаков-факторов (отсутствие мультиколлинеарности).
Мультиколлинеарность:
искажает величины параметров модели, которые имеют тенденцию к завышению;
приводит к изменению смысла экономической интерпретации коэффициентов регрессии;
вызывает слабую обусловленность системы нормальных уравнений;
осложняет процесс определения наиболее существенных факторных признаков.
В решении проблемы мультиколлинеарности можно выделить несколько этапов:
1. Установление наличия мультиколлинеарности:
а) проверяется выполнение условия:
(3.5)
и вычисляется значение статистики Фаррара–Глоуберапо следующей формуле:
(3.6)
где
количество
факторных признаков;
объём
совокупности;
определитель
матрицы парных межфакторных коэффициентов
корреляции, которая получается
вычёркиванием первой строки и первого
столбца в табл. 3.1);
уровень
значимости.
Критическое значение
можно найти с помощью функции ХИ2.ОБР.ПХ
Если условие (3.5) выполняется, то это
означает, что
недиагональные
ненулевые коэффициенты корреляции
указывают на коллинеарность факторов.
Мультиколлинеарность считается
доказанной;
б) высокие значения парных линейных
межфакторных коэффициентов корреляции
указывают на наличие интеркорреляции,
т.е. линейной связи между двумя объясняющими
переменными. Чем выше величина,
тем выше интеркорреляция. Факторы
и
могут
быть признаны коллинеарными, если
то это свидетельствует о наличии
интеркорреляции;
в) если
близок
к нулю, то это свидетельствует о наличии
мультиколлинеарности.
Таблица 3.2
Матрица парных коэффициентов корреляции
Признак |
|
|
|
|
|
|
1 |
|
|
|
|
|
|
1 |
|
|
|
|
|
|
1 |
|
|
|
|
|
|
|
|
|
|
|
|
|
1 |
2. Определение причин возникновения мультиколлинеарности:
а) изучаемые факторные признаки характеризуют одну и ту же сторону явления или процесса (например, показатели объема произведенной продукции и среднегодовой стоимости основных фондов одновременно включать в модель не рекомендуется, так как оба характеризуют размер предприятия).
б) использование в качестве факторных признаков, суммарное значение которых представляет собой постоянную величину (например, коэффициент годности и коэффициент износа основных фондов)
в) факторные признаки, являющиеся элементами друг друга (например, затраты на производство продукции и себестоимость единицы продукции)
г) факторные признаки, по экономическому смыслу дублирующие друг друга (например, прибыль и рентабельность продукции)
3. Разработка мер по устранению мультиколлинеарности
Устранение мультиколлинеарности возможно посредством исключения из корреляционной модели одного или нескольких линейно связанных факторных признаков или преобразование исходных факторных признаков в новые, укрупненные факторы. Вопрос о том, какой из факторов следует отбросить, решается на основе качественного и логического анализа изучаемого явления.
Методы устранения или уменьшения мультиколлинеарности:
Сравнение значений линейных межфакторных коэффицентов корреляции:
Суть метода: выбирается наибольшее абсолютное значение среди линейных межфакторных коэффициентов корреляции. Предпочтение отдается тому фактору, который более тесно, чем другие факторы, связан с результативным признаком, причем желательно, чтобы связь данного факторного признака с y была больше, чем его связь с другим факторным признаком, т.е.
(3.7)
Далее снова проверяется выполнение условия (3.3) и так далее до тех пор, пока не будет исключена мультиколлинеарность.
Метод исключения факторов на основе частных коэффициентов корелляции и детерминации
Частные коэффициенты корреляции, позволяют установить степень тесноты связи между результативным признаком у и каждым из факторных признаков при исключении искажающего влияния других факторных признаков. Следовательно, коэффициенты частной корреляции отражают степень «чистого» влияния факторного признака на результативный признак. Для их расчета могут быть использованы парные коэффициенты корреляции.
Для случая
зависимости результативного признака
у от
двух признаков-факторов (и
)
определяются два коэффициента частной
корреляции:
• частный коэффициент
корреляции между результативным
признаком у
и фактором
при элиминировании фактора
:
(3.8)
• частный коэффициент
корреляции между результативным
признаком у
и факторомпри элиминировании фактора
:
(3.9)
Для общего случая частные коэффициенты корреляции определяются по формуле
(3.10)
где
— обратная матрица матрицы
.
Величина частного коэффициента корреляции лежит в пределах от 0 до 1, а знак определяется знаком соответствующих параметров регрессии.
Рассчитывая
величины частных коэффициентов
корреляции, следует иметь в виду, что
каждый из них по своей абсолютной
величине не может быть больше величины
коэффициента множественной (совокупной)
корреляции
Частные коэффициенты детерминации позволяют оценить вклад в мультиколлинеарность каждого из факторных признаков и вычисляются по формуле
(3.11)
Фактические
значения F-критерия
сравниваются с критическими, вычисляемыми
для степеней свободы
,
и
уровне значимости
.
Если
то
соответствующие независимые переменные
мультиколлениарны с другими.
Далее осуществляется проверка наличия интеркорреляции каждой пары переменных. С этой целью по выражению (3.10) вычисляются частные коэффициенты корреляции и значения t-критериев Стъюдента по формуле
(3.12)
Фактические значения t-критериев
сравниваются с критическими при
степенях свободыи
уровне значимости
.Если
то
между соответствующими независимыми
переменные присутствует интеркорреляция.
Удалить следует ту переменную, у которой
большее значениеF-критерия.
Далее снова проверяется выполнение условия (3.5) и так далее до тех пор, пока не будет исключена мультиколлинеарность.
Метод главных компонент
Если по каким-то причинам перечень независимых переменных не подлежит изменению, то с целью исключения мультиколинеарности можно воспользоваться методом главных компонент.
Применение метода
главных компонент
предполагает переход от взаимозависимых
переменных х
к независимым друг от друга переменным
z,
которые называют главными
компонентами.
Каждая главная компонента
может быть представлена как линейная
комбинация стандартизованных
объясняющих переменных
,
которые определяются по формуле:
.
(3.13)
Количество компонент может быть меньше или равно количеству исходных независимых переменных р. Компоненту с номером k можно записать следующим образом:
.
(3.14)
Оценки
в формуле (3.14) соответствуют элементамk-го
собственного вектора матрицы
Нумерация главных
компонент не является произвольной.
Первая главная
компонента имеет максимальную
дисперсию, ей соответствует максимальное
собственное число матрицы
,
последняя — минимальную дисперсию и
наименьшее собственное число.
(3.15)
где
—
собственное число, соответствующее
данной компоненте; в знаменателе формулы
(3) приведена сумма всех собственных
чисел матрицы
.
После расчета
значений компонент
строят
регрессию, используя МНК.
,
(3.16)
гдеty—
стандартизованная зависимая
переменная;—коэффициенты
регрессии по главным компонентам;z1,z2,...,zk—главные
компоненты, упорядоченные по убыванию
собственных чисел
;
— случайный остаток.
После оценки параметров регрессии (3.14) можно перейти к уравнению регрессии в исходных переменных, используя выражения (3.14)—(3.15).
Рассмотрим применение перечисленных методов на данных примера 1
Пример 1.По данным, полученным от 40 промышленных предприятий одного из регионов, изучается зависимость объема выпуска продукции Y(млн. руб.) от четырех факторов:
X1 - численность промышленно-производственного персонала, чел.;
X2- среднегодовая стоимость основных фондов, млн руб.;
X3- электровооруженность 1 чел.-ч., кВт-ч;
X4- прибыль от реализации продукции, млн руб.
№ |
Y |
X1 |
X2 |
X3 |
X4 |
1 |
62 240 |
2 890 |
30 434 |
13,9 |
1 258 |
2 |
88 569 |
4 409 |
162 229 |
55,3 |
16 304 |
3 |
3 118 |
210 |
2 370 |
5,7 |
250 |
4 |
186 256 |
5 436 |
802 725 |
87,2 |
8 306 |
5 |
56 262 |
1 559 |
48 075 |
56,2 |
17 663 |
6 |
19 216 |
940 |
18 894 |
27,6 |
2 861 |
7 |
16 567 |
1 197 |
19 621 |
31,1 |
734 |
8 |
203 456 |
8 212 |
336 472 |
60,5 |
42 392 |
9 |
13 425 |
459 |
9 843 |
33,5 |
4 740 |
10 |
31 163 |
1 405 |
44 217 |
35,1 |
9 469 |
11 |
30 109 |
1 575 |
34 142 |
26,5 |
5 206 |
12 |
14 781 |
964 |
6 412 |
4,4 |
-1 437 |
13 |
41 138 |
1 866 |
39 208 |
24,9 |
9 948 |
14 |
69 202 |
4 419 |
80 694 |
13,2 |
-9 135 |
15 |
10 201 |
802 |
6 714 |
14,9 |
857 |
16 |
75 282 |
2 600 |
28 148 |
2,4 |
12 729 |
17 |
47 064 |
1 110 |
11 861 |
5,8 |
8 887 |
18 |
57 342 |
1 147 |
63 273 |
50,4 |
15 503 |
19 |
32 900 |
864 |
16 144 |
4,9 |
7 960 |
20 |
18 135 |
763 |
14 758 |
25,9 |
2 522 |
21 |
29 589 |
1 003 |
27 642 |
43,5 |
4 412 |
22 |
22 604 |
1 680 |
23 968 |
3,1 |
3 304 |
23 |
1 878 |
77 |
250 |
0,6 |
172 |
24 |
49 378 |
2 505 |
85 105 |
43,1 |
6 264 |
25 |
6 896 |
1 556 |
12 612 |
0,7 |
1 745 |
26 |
3 190 |
442 |
478 |
0,2 |
116 |
27 |
5 384 |
305 |
3 667 |
6,6 |
1 225 |
28 |
17 668 |
875 |
16 250 |
4,8 |
4 652 |
29 |
24 119 |
1 142 |
28 266 |
48,7 |
5 278 |
30 |
16 649 |
710 |
8 228 |
17,8 |
5 431 |
31 |
6 925 |
162 |
1 481 |
3,0 |
2 213 |
32 |
5 394 |
331 |
3 797 |
20,8 |
1 454 |
33 |
4 330 |
217 |
2 950 |
23,9 |
1 764 |
34 |
1 087 322 |
46 142 |
972 349 |
27,5 |
163 420 |
35 |
284 154 |
10 469 |
272 622 |
33,2 |
27 506 |
36 |
363 204 |
16 063 |
267 652 |
23,1 |
72 782 |
37 |
162 216 |
6 139 |
128 731 |
35,1 |
35 218 |
38 |
97 070 |
4 560 |
108 549 |
32,5 |
10 035 |
39 |
55 410 |
2 797 |
60 209 |
37,2 |
1 021 |
40 |
32 654 |
1 922 |
60 669 |
33,8 |
5 192 |
Сравнение значений линейных межфакторных коэффицентов корреляции:
|
|
Y |
X1 |
X2 |
X3 |
X4 |
|
Y |
1,000 |
0,996 |
0,854 |
0,190 |
0,968 |
R= |
X1 |
0,996 |
1,000 |
0,826 |
0,149 |
0,966 |
|
X2 |
0,854 |
0,826 |
1,000 |
0,480 |
0,770 |
|
X3 |
0,190 |
0,149 |
0,480 |
1,000 |
0,174 |
|
X4 |
0,968 |
0,966 |
0,770 |
0,174 |
1,000 |
|
|
X1 |
X2 |
X3 |
X4 |
|
X1 |
1,000 |
0,826 |
0,149 |
0,966 |
R1= |
X2 |
0,826 |
1,000 |
0,480 |
0,770 |
|
X3 |
0,149 |
0,480 |
1,000 |
0,174 |
|
X4 |
0,966 |
0,770 |
0,174 |
1,000 |
=167,01;
=12,59.
Условие (3.5) выполняется, следовательно
мультиколлинеарность присутствует.
В соответствии (3.7) исключаем фактор 4.
=62,97;
=7,81.
Исключаем фактор 2.
=0,84;
=3,84.
Условие (3.5) не выполняется, следовательно
мультиколлинеарность отсутствует.
Определим параметры уравнения регрессии с помощью режима “Регрессия”
Как следует из итогов параметры уравнения и уравнение в целом значимы.
Точность (величина ошибки)
Метод исключения факторов на основе частных коэффициентов корреляции и детерминации
=167,01;
=12,59.
Условие (3.5) выполняется, следовательно,
мультиколлинеарность присутствует.
|
|
X1 |
X2 |
X3 |
X4 |
|
X1 |
25,66 |
-8,06 |
3,40 |
-19,17 |
C= |
X2 |
-8,06 |
6,05 |
-2,32 |
3,53 |
|
X3 |
3,40 |
-2,32 |
1,93 |
-1,83 |
|
X4 |
-19,17 |
3,53 |
-1,83 |
17,11 |
F1 |
F2 |
F3 |
F4 |
Fкрит |
215,8 |
44,2 |
8,1 |
141,0 |
2,6 |
Все частные коэффициенты детерминации больше их критического значения, что подтверждает ранее сделанный вывод о наличии мультиколлинеарности.
|
rij |
tij |
tkr |
12 |
0,647 |
5,02 |
2,03 |
13 |
-0,483 |
-3,26 |
|
14 |
0,915 |
13,39 |
|
23 |
0,680 |
5,48 |
|
24 |
-0,347 |
-2,19 |
|
34 |
0,319 |
1,99 |
|
Все расчётные значения t-критерия,
кроме,больше
критического. Максимальное значение
между первым и четвёртым факторами. Для
того чтобы избавиться от интеркорреляции
необходимо исключить фактор
так
как у него большее значениеF-критерия.
Следовательно, он больше влияет на общую
мультиколлинеарность факторов.
Далее в процессе решения был исключён
фактор
.
Матрица
имеет следующий вид
|
|
X3 |
X4 |
|
X3 |
1,000 |
0,174 |
|
X4 |
0,174 |
1,000 |
=1,16;
=3,84.
Условие (3.5) не выполняется, следовательно
мультиколлинеарность отсутствует.
Определим параметры уравнения регрессии с помощью режима “Регрессия”
В связи с тем, что параметр
не
значим,
фактор
3 исключим из дальнейшего рассмотрения.
Как следует из итогов параметры уравнения и уравнение в целом значимы.
Точность (величина ошибки)
Рассмотрим вариант короткой регрессии (первый метод без учёта третьего фактора
Как следует из итогов параметры уравнения и уравнение в целом значимы.
Точность (величина ошибки)
Целесообразность включения фактора Х3 рассмотрим с помощью теста на выбор «длинной» и «короткой» регрессии. Этот тестиспользуется для отбора наиболее существенных объясняющих переменных. Иногда переход от большего числа исходных показателей анализируемой системы к меньшему числу наиболее информативных факторов может быть объяснен дублированием информации из-за сильно взаимосвязанных факторов. Стремление к построению более простой модели приводит к идее уменьшения размерности модели без потери ее качества. Для этого используют тестпроверки “длинной”и“короткой”регрессий.
Если
,
то гипотеза отвергается (выбираем
“длинную”регрессию).