Добавил:
Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:

Многомерный статистический анализ (128

..pdf
Скачиваний:
4
Добавлен:
15.11.2022
Размер:
473.36 Кб
Скачать

стью от меньшего числа других, непосредственно не измеряемых

общих факторов zG = (z1,..., zq ), q < p. При этом обычно предпола-

гается, что общие факторы независимы, центрированы и нормированы. Кроме того, каждая компонента ξi зависит также и от сво-

его «собственного» фактора ui , который включает в себя ту часть изменчивости ξi , которая не может быть объяснена общими фак-

торами.

Линейная модель факторного анализа записывается в виде

ξ=B zG +uG.

(7.1)

Здесь B = (bij ) – матрица размеров p ×q,

состоящая из коэффици-

ентов, называемых нагрузками общих факторов на причины ξi ;

собственный

фактор uG

имеет

нормальное

распределение:

uG ~ N(0,

), где

– диагональная матрица с элементами по глав-

ной диагонали δii ,i =

 

.

 

 

 

1, p

 

 

 

Применительно к каждому конкретному наблюдению ξGν со-

отношение (7.1) дает

 

 

 

 

 

 

 

 

ξν = BzGν +uGν.

(7.2)

В зависимости от интерпретации результатов эксперимента

вектор

общих

факторов

может

быть либо случайным:

zG ~ N(0, Iq ),

где Iq единичная матрица размеров q ×q , либо рас-

сматриваться как вектор неслучайных параметров, значения которых меняются от наблюдения к наблюдению. В последнемслучае условие центрированностиинормированности z приобретаетвид

 

1 n

zG

= 0;

1 n

zG

zG′ = I

q

.

(7.3)

 

 

 

 

 

 

n ν=1

n ν=1

 

ν

 

ν

ν

 

 

Сам вектор ξG независимо от интерпретации z

имеет нормаль-

ное распределение с вектором средних и матрицей ковариации D,

41

равными соответственно

 

Eξ = 0;

D = BB′+ . В

координатной

форме это можно записать так

 

 

 

 

 

 

 

σ

ii

=

q

b2

ii

;

 

 

 

 

ν=1

iν

 

 

 

 

 

 

 

 

 

 

 

(7.4)

 

= q

 

 

 

 

 

σij

biνbjν,

i j.

 

 

 

 

ν=1

 

 

 

 

 

Перед тем как перейти к описанию методов оценивания неиз-

вестных параметров, подчеркнем, что переменные

z1,..., zq , в от-

личие от моделей регрессионного или дисперсионного анализов, в факторном анализе являются ненаблюдаемыми и сами подлежат оценке по результатам эксперимента. В этом состоит принципиальное отличие моделей факторного анализа от рассмотренных ранее моделей.

Таким образом, по многомерной выборке ξ = (ξ1,...,ξp ) необ-

ходимо оценить: нагрузки bi j ;

остаточные дисперсии δi i ; сами общие факторы zi .

Вначале оцениваются параметры bi j и δi i . Уточним, что в (7.4) известными считаются величины σij , σii или их оценки по

выборке.

Применение метода максимального правдоподобия приводит к необходимости решения трансцендентных уравнений, однако основная трудность здесь заключается в том, что без дополнительных ограничений на матрицу B решение уравнений правдоподобия вместе с (7.4) определяется с точностью до ортогонального преобразования, т. е. оно неоднозначно (так называемая проблема вращения факторов). Существует несколько способов выделения однозначной оценки B [3]. В пособии рассмотрен один из них,

заключающийся в том, что оценка B должна удовлетворять тако-

му условию: матрица BB является диагональной, причем диагональные элементы различны и расположены в порядке убывания.

42

Можно показать, что при выполнении этого условия метод максимального правдоподобия приводит к необходимости итерацион-

ной процедуры для определения матриц B и

, которая заключа-

ется в следующем.

 

(0).

1.

Задают нулевое приближение матрицы

2.

Вычисляют V (0) = D (0) ,

V (0) = B(0) B(0).

3.

Определяют матрицу B(0) ,

столбцы которой есть собствен-

ные векторы V (0) , соответствующие q наибольшим собственным значениям V (0).

4.

Вычисляют V (1) = B(0) B(0)и (1) = D V (1) .

5.

Повторяют пункты 2–4.

При слабых ограничениях можно доказать, что получаемые оценки асимптотически имеют нормальное распределение.

После вычисления B и выполняют основную задачу – оценивают факторы как линейные комбинации признаков (наблюдений). Наиболее распространенным является метод Бартлетта. В этом методе факторы интерпретируются как неизвестные коэффи-

циенты регрессии компонент ξi по оценкам bij .

Запишем (7.2) в координатной форме для фиксированного на-

блюдения ξ ν = (ξ1 ν, ξ2 ν,..., ξp ν). Пусть z ν = (z1ν, z2ν,..., zqν)

значения факторов для ν -го наблюдения. Тогда справедливо равенство

q

 

 

ξiν = bij z jν +uiν.

(7.5)

j=1

 

 

Учитывая, что дисперсии собственных факторов uiν не равны, оценки для z jν можно получить взвешенным методом наименьших квадратов:

 

 

 

 

 

1ξν.

 

zGν = (B

 

1B)1 B

 

(7.6)

Формула (7.6) получена в пособии [1].

43

ПРИЛОЖЕНИЕ

1. Преобразование плотностей случайных векторов

 

Пусть f (x1,..., xp )

– совместная плотность вероятностей векто-

ра

ξG = (ξ1,...,ξp ) .

Рассмотрим взаимно однозначное преобразова-

ние, задаваемое

p

функциями yi = yi (x1,..., xp ), i =

 

. Пусть

1, p

xi

= xi ( y1,..., yp ),

i =

 

– обратное преобразование. Рассмотрим

1, p

 

G

 

 

 

 

где ηi = yi (ξ). Тогда совместная плотность

вектор η= (η1,...,ηp ),

G

 

 

 

 

 

 

 

 

 

η= (η1,..., ηp ) равна

 

 

 

 

 

g( y1,..., yp ) = f (x1( y1,..., yp ),..., xp ( y1,..., yp )) mod | J | ,

 

 

x

 

 

 

 

 

 

 

где J =

i

– матрица Якоби.

 

 

 

 

 

 

 

 

 

 

 

 

 

y j

 

 

 

 

 

 

2. Сведения из матричной алгебры

Обозначим Ψm×n

(m ×n); Ψn = Ψn×n.

Следом матрицы

n

элементов trA = aii .

i=1

– множество прямоугольных матриц размера

A Ψn называется сумма ее диагональных

Симметричная матрица Α Ψn называется положительноопределенной (неотрицательно-определенной), если для любого вектора a Rn , a ≠ 0 выполнено условие a/ Aa > 0, (a/ Aa ≥ 0 ). Пусть Ψ>n ( Ψn ) – множество положительно-определенных (неотрица-

тельно-определенных) матриц. Неравенство А > В (А, В Ψn ) озна-

чает, чтоматрицаАВявляетсяположительно-определенной. Теорема. (О спектральном разложении.) Если А – симметрич-

ная матрица, то справедливо соотношение C/ AC = Λ, A = CΛC/ ,

44

где С – ортогональная матрица; Λ – диагональная матрица, у которой по главной диагонали стоят собственные числа А.

3.Свойства следа матрицы

1.tr( A + B) = tr(B + A).

2.Если А, В – согласованные матрицы (т. е. АВ и ВА), то tr( AB) = tr(BA).

3.Если С – ортогональная матрица, то tr(CAC/ ) = trA.

4.Неравенство Минковского. Если А, В Ψ>n, то

[det( A + B)]1/ n (det A)1/ n + (det B)1/ n .

4. Правила дифференцирования функционалов по векторным или матричным параметрам

Если a,b Rn , A, B, X Ψn , то справедливы следующие равенства.

1. (a/b) = b.

a

3. (a/ Ab) = ab/ .

A

5. detX X = (det X )(X / )1

2.

(a/ Aa)

= 2Aa.

 

a

 

 

 

 

4.

(trXAX / )

= X ( A + A/ ).

 

 

X

 

 

6.

 

ln (det

X / X ) = 2 X ( X / X )1.

X

 

 

 

 

 

 

5. Свойства оценок максимального правдоподобия

Пусть

θ = (θ ,...,θ

m

)

– вектор параметров некоторого распре-

деления.

1

 

G

 

 

максимального

Тогда, если

θ = (θ1

,...,θm ) – оценки

правдоподобия этих параметров и функции ϕ

(θ),...,ϕ

 

G

осу-

m

(θ)

 

 

 

 

 

 

1

G

 

 

 

 

 

 

 

 

 

 

 

G

ществляют взаимно однозначное соответствие, то ϕ1(θ),...,ϕm (θ)

есть оценки максимального правдоподобия этих параметрических функций.

45

СПИСОК ЛИТЕРАТУРЫ

1.Карташов Г.Д., Тимонин В.И., Канчавели А.Д. Дополнительные главы математическойстатистики. М.: МГТУим. Н.Э. Баумана, 2002. 52 с.

2.Андерсон Т. Введение в многомерный статистический анализ / Пер. с англ. М.: Физматлит, 1963. 500 с.

3.Айвазян С.А., Бухштабер В.М., Енюков И.С. Классификация и сни-

жение размерности. М.: Финансы и статистика, 1989. 608 с.

4.Ермаков С.М., Жиглявский А.А. Математическая теория оптимального эксперимента. М.: Наука, 1987. 320 с.

5.Дубров А.М., Мхитарян В.С., Трошин Л.И. Многомерные статисти-

ческие методы. М.: Финансы и статистика, 2000. 352 с.

46

 

ОГЛАВЛЕНИЕ

 

Введение .......................................................................................................

3

1.

Многомерное нормальное распределение ......................................

4

2.

Статистические выводы о векторе средних ....................................

17

3.

Дискриминантный анализ .................................................................

23

4.

Метод главных компонент ...............................................................

27

5.

Канонические корреляции ................................................................

30

6.

Многомерный регрессионный анализ .............................................

35

7.

Факторный анализ .............................................................................

40

Приложение ..................................................................................................

44

Список литературы ......................................................................................

46

47

Методическое издание

Геннадий Дмитриевич Карташов Владимир Иванович Тимонин Лилия Михайловна Будовская

МНОГОМЕРНЫЙ СТАТИСТИЧЕСКИЙ АНАЛИЗ

Редактор О.М. Королева Корректор Л.И. Малютина

Компьютерная верстка А.Ю. Ураловой

Подписано в печать 18.06.07. Формат 60×84/16. Бумага офсетная.

Печ. л. 3,0. Усл. печ. л. 2,79. Уч.-изд. л. 2,02.

Тираж 300 экз. Изд. № 36. Заказ

Издательство МГТУ им. Н.Э. Баумана. 105005, Москва, 2-я Бауманская, 5.

Соседние файлы в предмете [НЕСОРТИРОВАННОЕ]