- •Лекция 1
- •1.1. Принципы измерений и шкалирования
- •1.2. Сопоставаление методов шкалирования
- •1.3. Методы сравнительного шкалирования
- •Лекция 2
- •2.1. Понятие дисперсионного анализа
- •2.2. Однофакторный дисперсионный анализ
- •2.3. Определение зависимых и независимых переменных
- •2.4. Измерение эффекта.
- •2.5. Проверка значимости.
- •Лекция 3
- •3.1. Допущения в дисперсионном анализе.
- •3.2. Многофакторный дисперсионный анализ
- •3.3. Ковариационный анализ
- •3.4. Парная корреляция
- •3.5. Частная корреляция
- •Лекция 4
- •4.1. Условия, которые допускают использование регрессионного анализа
- •4.2. Парная регрессия
- •4.3. Стадии парного регрессионного анализа
- •4.4. Поле корреляции
- •4.5. Определение параметров уравнения регрессии.
- •4.6. Нормированный коэффициент регрессии и проверка значимости.
- •Лекция 5
- •5.1. Теснота и значимость связи
- •5.2. Точность предсказаний
- •5.3. Допущения модели регрессионного анализа
- •5.4. Факторный анализ
- •Лекция 6
- •6.1. Факторная модель при нормированных переменных
- •6.2. Статистики факторного анализа
- •6.3. Этапы выполнения факторного анализа
- •Лекция 7
- •7.1. Формулировка проблемы и построение корреляционной матрицы.
- •7.2. Определение метода факторного анализа и числа факторов
- •7.3. Вращение и интерпретация факторов.
- •7.4. Вычисление значений факторов, отбор переменных-имитаторов и определение подгонки модели.
- •Лекция 8
- •8.1. Сущность кластерного анализа.
- •8.2. Статистики кластерного анализа
- •8.3. Этапы выполнения кластерного анализа.
5.2. Точность предсказаний
Чтобы оценить точность предсказанных (теоретических) значений Y, полезно вычислить стандартную ошибку оценки уравнения регрессии SEE. Эта статистика представляет собой стандартное отклонение фактических значений Y от предсказанных значений .
SEE = ,
или, в общем виде, при наличии k независимых переменных
SEE =
SEE можно интерпретировать как среднее значение остатка или среднюю ошибку предсказания Y, исходя из уравнения регрессии.
Могут иметь место два варианта предсказания:
необходимость предсказания среднего значения Y для всех вариантов с заданным значением Х, например Х0;
необходимость предсказания среднего значения Y для одного варианта с заданным значением Х0.
В обеих вариантах, предсказанное значение одно и то же
= a + bX0
В то же время, стандартная ошибка для этих вариантов предсказания разная, хотя в обеих вариантах она является функцией SEE. Для больших выборок стандартная ошибка предсказания среднего значения Y равна SEE/, а ошибка предсказания отдельного значения Y равна SEE. А это значит, что построение доверительных интервалов для предсказанных значений варьируют в зависимости от того, необходимо ли предсказать единственное значение наблюдения или среднее значение наблюдений.
5.3. Допущения модели регрессионного анализа
Регрессионная модель при оценке параметров и проверке значимости исходит из ряда допущений:
Ошибочный член уравнения регрессии (остаточный компонент) подчиняется нормальному закону. Для каждого определенного значения Х распределение Y нормально.
Средние значения всех этих нормальных распределений Y при заданном Х, лежат на прямой линии с угловым коэффициентом b.
Среднее значение ошибочного члена равно 0.
Дисперсия ошибочного члена постоянна. Эта дисперсия не зависит от значений, принятых Х.
Между ошибочными членами автокорреляция отсутствует, т.е. значения ошибочных величин не зависимы между собой.
5.4. Факторный анализ
В дисперсионном и регрессионном анализах одну переменную четко идентифицируют как зависимую. Факторный анализ не предполагает разделения переменных на зависимые и независимые. При факторном анализе проверяются все возможные варианты взаимозависимостей между переменными.
Факторный анализ – это название целого класса методов, используемых, главным образом, для сокращения числа переменных, а также их обобщения. При различных исследованиях приходится сталкиваться с множеством переменных, большинство из которых взаимосвязаны. Для удобства обработки данных число переменных целесообразно снизить до приемлемого уровня. Для того, чтобы осуществить эту процедуру, связи между коррелированными переменными анализируют и представляют в виде небольшого числа факторов. Факторный анализ – это метод анализа взаимозависимости, поскольку в факторном анализе проверяются всевозможные варианты взаимозависимых связей.
Факторный анализ используют в следующих случаях:
для определения основных факторов, которые объясняют связи в наборе переменных;
для определения нового, меньшего по размеру набора некоррелирующих переменных, заменяющих исходный набор коррелирующих переменных, на основании которого выполняется дальше многомерный анализ (например, регрессионный);
для преобразования большего по размеру набора в меньший набор ясно выраженных переменных с целью использования их в последующем многомерном анализе.
Таким образом, фактор – это латентная переменная, конструируемая таким образом, чтобы можно было объяснить корреляцию между набором переменных.