- •От автора
- •Раздел 1. Проблема измерения в психологии
- •1. 1. Понятие об измерении
- •1. 2. Особенности измерения в психологии
- •1. 3. Шкалы измерений
- •Раздел 2. Основные статистические понятия
- •2. 1. Генеральная и выборочная совокупности
- •2. 2. Переменная величина
- •2. 3. Уровни значимости
- •2. 4. Достоверность результатов исследования
- •Раздел 3. Подготовка данных к математической обработке
- •3. 1. Протоколирование данных
- •3. 2. Составление сводных таблиц (табулирование данных)
- •3. 3. Определение квантилей
- •3. 4. Графическое представление результатов
- •Раздел4. Меры центральной тенденции
- •4. 1. Мода
- •4. 2. Медиана
- •4. 3. Среднее арифметическое значение
- •4. 4. Среднее геометрическое значение
- •Задачи по теме Задача 4.1
- •Задача 4.2
- •Задача 4. 3
- •Раздел 5. Меры изменчивости (разнообразия, вариативности) исследуемого признака
- •5. 1. Лимиты (пределы) разнообразия
- •5. 2. Размах вариаций
- •5. 3. Среднее отклонение
- •5. 4. Дисперсия
- •5. 5. Среднеквадратичное (стандартное) отклонение
- •5. 6. Коэффициент вариации
- •Задачи по теме Задача 5. 1
- •Задача 5.2
- •Раздел 6. Распределения переменных величин
- •6.1. Нормальное распределение
- •6. 1. 1. Основные понятия
- •6. 1. 2. Коэффициент асимметрии
- •6. 1. 3. Коэффициент эксцесса
- •6. 1. 4. Критерий хи-квадрат (c2)
- •6. 1. 5. Критерий Колмогорова – Смирнова (l)
- •6. 2. Равномерное распределение
- •6. 3. Биномиальное распределение
- •6. 4. Распределение Пуассона
- •Задачи по теме Задача 6. 1
- •Задача 6. 2
- •Задача 6. 3
- •Задача 6. 4
- •Раздел 7. Меры различий
- •7. 1. Постановка проблемы
- •7. 2. Непараметрический критерий qРозенбаума
- •7. 4. Критерий Стьюдента
- •7.5. Критерий Фишера
- •7. 6. Критерий j*-угловое преобразование Фишера
- •7.7. Использование критерия χ2 Пирсона и критерия λ Колмогорова для оценки различий между двумя выборками
- •Задачи по теме Задача 7. 1
- •Задача 7. 2
- •Задача 7.3
- •Задача 7.4
- •Задача 7.5
- •Задача 7.7
- •Раздел 8. Меры связи
- •8. 1. Постановка проблемы
- •8. 2. Представление данных
- •8. 3. Коэффициент корреляции Фехнера
- •8. 4. Коэффициент корреляции Пирсона
- •8. 5. Коэффициент ранговой корреляции Спирмена
- •8.6. Коэффициент ранговой корреляции Кендалла (тау Кендалла, t)
- •8.7. Дихотомический коэффициент корреляции (j)
- •8. 8. Точечный бисериальный коэффициент корреляции (rpb)
- •8. 9. Рангово-бисериальный коэффициент корреляции (rrb)
- •8. 11. Матрицы корреляций
- •Задачи по теме Задача 8.1
- •Задача 8. 2
- •Задача 8. 3
- •Задача 8. 4
- •Задача 8. 5
- •Задача 8. 6
- •Задача 8. 7
- •Задача 8. 8
- •Задача 8. 9
- •Задача 8. 10
- •Задача 8.16
- •Задача 8.18
- •Раздел 9. Меры зависимости
- •9.1. Основные понятия
- •9.2. Анализ линейной зависимости методом наименьших квадратов
- •9.4. Множественная регрессия
- •Задачи по теме Задача 9. 1
- •Задача 9. 2
- •Раздел 10. Меры влияния
- •10. 1. Сущность проблемы
- •10. 2. Непараметрические меры влияния
- •10.2.1. Критерий знаков
- •10.2.2. Критерий Вилкоксона
- •10.3. Однофакторный дисперсионный анализ
- •10. 4. Двухфакторный дисперсионный анализ
- •Задачи по теме Задача 10. 1
- •Задача 10. 2
- •Раздел 11. Элементы многомерной статистики
- •11.1. Основные понятия
- •11.2. Кластерный анализ
- •11.2.1. Функции расстояния
- •11.2.2. Меры сходства
- •11.2.3. Выбор числа кластеров
- •Динамическое программирование
- •Целочисленное программирование
- •11.2.4. Методы кластеризации
- •11.2.5. Представление данных
- •11.3. Факторный анализ
- •11.3.1. Основные принципы факторного анализа
- •11.3.2. Основные методы, используемые в факторном анализе
- •Метод главных факторов
- •Центроидный метод
- •Метод минимальных остатков
- •Метод максимума правдоподобия
- •Групповой метод
- •11.3.3. Выбор числа факторов и оценка их значений
- •11.3. 4. Представление результатов факторного анализа
- •Ответы на задачи
- •Список рекомендуемой литературы
- •Дополнительная
- •Приложение статистические таблицы
- •Критические значения коэффициента асимметрии (As), используемого для проверки гипотезы о нормальности распределения
- •Критические значения показателя эксцесса (Ex), используемого для проверки нормальности распределения
- •Теоретические частоты 8-классового нормального распределения ("шаг" 1 s)
- •Теоретические частоты 16-классового нормального распределения ("шаг" 0,5 s)
- •Значения z Пирсона и соответствующие им теоретические накопленные частоты
- •Стандартные значения хи-квадрат
- •Уровень значимости различий между экспериментальным и теоретическим распределениями по критерию λ Колмогорова – Смирнова
- •Критические значения критерия q Розенбаума
- •Критические значения критерия u Манна-Уитни для уровня значимости 0,95
- •Стандартные значения критерия Стьюдента
- •Стандартные значения критерия Фишера, используемые для оценки достоверности различий между двумя выборками
- •Величины угла j в радианах для разных процентных долей (угловое преобразование Фишера)
- •Критические значения коэффициентов корреляции Пирсона и Спирмена
- •Критические значения коэффициента t Кендалла
- •Число пар значений, достаточное для статистической значимости коэффицентов корреляции Пирсона и Спирмена
- •Критические значения дихотомического коэффициента корреляции j
- •Границы критической области для критерия знаков
- •Критические значения критерия т Вилкоксона
11.3.2. Основные методы, используемые в факторном анализе
Метод главных компонент (компонентный анализ)
Каждый из N объектов представляется в виде точки в n-мерном пространстве, каждая ось которого соответствует одному из параметров. Облако точек имеет форму, близкую к m-мерному эллипсоиду, и становится идеальным эллипсоидом в случае нормального распределения. Оси эллипсоида соответствуют главным компонентам. Следовательно, в компонентном анализе производится вращение исходной системы координат к новой системе в полном пространстве параметров – ортогональное преобразование, при котором каждый из n параметров выражается через n главных компонент. Целью вращения является нахождение в пространстве общих факторов одной из возможных осей координат, которая должна быть наложена на конфигурацию векторов для получения факторной структуры. Важным свойством компонент является то, что каждая из них по порядку учитывает максимум суммарной дисперсии параметров. Другими словами, первая главная компонента есть линейная комбинация исходных параметров, учитывающая максимум их суммарной дисперсии; вторая главная компонента не коррелирует с первой и учитывает максимум оставшейся дисперсии и т.д. до тех пор, пока вся дисперсия не будет учтена. Сумма дисперсий всех главных компонент равна сумме дисперсий всех исходных параметров. При этом принято выражать параметры в стандартной форме, при которой дисперсия параметра равна единице (следовательно, суммарная дисперсия равна n).
Метод главных факторов
Представляет собой приложение метода главных компонент к редуцированной корреляционной матрице, у которой на главной диагонали стоят значения общностей. Выражение для определения коэффициентов при общих факторах записывается уравнением zj = aj1F1 + ... + ajpFp + ... + ajmFm (j = 1, 2, ..., n), в котором не учитывается специфический фактор.
Сумма квадратов факторных коэффициентов дает значение общности данного параметра, а член указывает на вклад фактораFp в общность параметра zj.
На первой стадии анализа ищут коэффициенты при первом факторе так, чтобы сумма вкладов фактора в суммарную общность была максимальной. Эта сумма равна V1 = ++ ... +.
Для определения коэффициентов при втором факторе F2 необходимо максимизировать функцию V2 = ++ ... +, которая представляет собой сумму вкладовF2 в остаточную общность и т.д.
В отличие от метода главных компонент, на главной диагонали стоят числа, меньшие единицы (оценки общностей), поэтому m < n. Процедура факторизации в данном случае несколько проще, нежели при использовании метода главных компонент, и процесс прекращается, когда сумма собственных значений становится равной суммарной общности n параметров.
Центроидный метод
Название метода происходит от понятия центроида, или центра тяжести. Поскольку параметры можно рассматривать как набор n векторов в m-мерном пространстве, где m число общих факторов, то скалярное произведение любой пары векторов соответствует коэффициенту корреляции между соответствующими векторами (напомним, что величина коэффициента корреляции равна косинусу угла между двумя векторами).
Процедура анализа состоит в повороте системы координат таким образом, чтобы первая ось проходила через начало координат и «центр тяжести» n точек концов векторов. После этого можно вычислить проекции векторов (координаты параметров) на первую ось новой системы. С помощью специальных алгоритмов определяются коэффициенты при первом центроидном факторе.
Для нахождения второго фактора вычисляют матрицу первых остатков. Остаточные корреляции вычисляются как скалярные произведения пар остаточных векторов в пространстве m - 1 измерений. Процедура последовательно повторяется до тех пор, пока не будут вычислены факторные веса и нагрузки всех остальных факторов.
В отличие от предыдущих методов, в центроидном методе используется процедура «отражения», когда после вычисления нагрузки каждого фактора все оставшиеся отрицательные векторы поворачивают на 180° (напомним, что уровень связи не зависит от знака корреляции).