- •1. Предмет математической статистики.
- •2. Статистические совокупности, их виды.
- •3. Определяющее свойство статистической совокупности.
- •4. Признаки единиц совокупности, их классификация.
- •5. Описательная характеристика статистических совокупностей.
- •6. Ранжированный ряд распределения, техника его построения.
- •7. Анализ ранжированного ряда распределения.
- •8. Вариационный ряд распределения, техника построения для дискретного признака.
- •9. Интервальный вариационный ряд распределения, техника его построения.
- •10. Анализ дискретного и интервального вариационного ряда распределения.
- •11. Определение статистического показателя применительно к абстрактной статистической совокупности.
- •12. Система статистических показателей для всесторонней характеристики статистического ряда распределения.
- •13. Показатели центральной тенденции, их классификация.
- •14. Параметрические показатели центральной тенденции, их виды, условия применения и алгоритмы расчета.
- •15. Условия типичности параметрических средних.
- •16. Непараметрические средние. Алгоритмы их расчета в ранжированном ряду распределения.
- •17. Алгоритмы расчета структурных средних в дискретном и вариационном рядах распределения.
- •18. Взаимосвязь средней арифметической, моды и медианы.
- •19. Сравнение средней арифметической, моды и медианы.
- •20. Понятие о вариации.
- •Показатели вариации, алгоритмы их расчета
- •Интерпретация показателей вариации
- •Сравнение вариации одного и того же признака в двух совокупностях, сравнение вариации разных по содержанию признаков
- •Конкретная ошибка выборки, распределение конкретных ошибок выборки
- •Средняя ошибка выборки для выборочной средней и выборочной доли
- •61.Область согласия и область отказа. Соотношение между ними
- •62. Статистические таблицы , как инструмент принятия ( отказа ) гипотез
- •68. Особенности проверки гипотезы о соответствии фактического распределения нормальному.: постановка гипотезы; содержание ожидаемых частот; расчет критерия
- •69 Особенности проверки гипотезы о соответствии фактического распределения распределению Пуассона: постановка гипотезы; содержание ожидаемых частот; расчет критерия
- •71. Как критерий независимости. Постановка нулевой и альтернативной гипотез.
- •72. Как критерий независимости. Содержание и алгоритм расчета ожидаемых частот
- •73. Как критерий однородности. Содержание выдвигаемых гипотез
- •74. Как критерий однородности.Какие сравнения определяют величину фактического значения критерия.
- •75. Определение табличного значения критерия при различных аспектах его использования.
- •76. Схема проверки гипотез относительно генеральной средней
- •77. Критерий двухсторонний и односторонний
- •78. Особенности принятия альтернативной гипотезы при направленном ее характере
- •79. Выборки зависимые и независимые
- •80. Особенности проверки гипотез относительно двух средних при равных численностях выборок и равных дисперсиях
- •91. Проверка гипотезы относительно доли признака в двух совокупностях, если хотя бы одна из выборочных долей лежит вне интервала 0,1-0,9
- •92. Проверка гипотезы о принадлежности конкретного наблюдения исследуемой совокупности с использованием критерия t – нормального распределения
- •93. Проверка гипотезы о принадлежности конкретного наблюдения исследуемой совокупности с использованием критерия Диксона
- •94. Постановка гипотез при дисперсионном анализе
- •95 Критерий f- Фишера. Условия его применимости
- •96.Преобразование исходных данных с целью проведения дисперсионного анализа
- •97.Необходимость конкретизации результатов дисперсионного анализа
- •98. Конкретизация результатов дисперсионного анализа на основе критерия q- Тьюки
- •99 Понятие о контрастах
- •100. Схема конкретизации результатов дисперсионного анализа методом контрастов Шефе
- •101. Модель дисперсионного анализа с постоянным эффектом факторов, постановка гипотез и расчет фактического значение критерия.
- •102. Модель дисперсионного анализа со случайным эффектом факторов, постановка гипотез и расчет фактического значение критерия.
- •103. Проверяемые гипотезы при двухфакторном дисперсионном анализе.
- •104. Разложение общего объема вариации признака при двухфакторном дисперсионном анализе и неслучайном формировании повторностей.
- •105. Понятие о многомерном дисперсионном анализе.
- •106. Понятие о корреляционной связи.
- •107. Требования к совокупности и факторным признакам при построении корреляционного уравнения связи.
- •108. Этапы построения уравнения связи.
- •108. Методы нахождения вида уравнения.
- •109. Метод наименьших квадратов, содержание и реализация.
- •110. Интерпретация коэффициентов уравнения.
- •122. Приведение матрицы исходных данных в сопоставимый вид при построении многомерной средней.
- •122. Нормирование исходных данных.
- •125. Выбор итерации, соответствующей оптимальному разбиению.
- •126. Метод k-средних (кластерный анализ с обучением).
- •127. Методы установления центров тяжести.
- •128. Назначение факторного анализа.
- •129. Техника факторного анализа.
- •130. Разложение единичной дисперсии.
- •131. Общность, специфичность, надежность в факторном анализе.
- •132. Общий алгоритм факторного анализа.
- •133. Решение проблемы общности при факторном анализе.
- •134. Установление числа факторов.
- •135. Простая структура Терстоуна.
- •136. Факторные нагрузки.
- •137. Вращение матрицы факторных нагрузок и интерпретация факторов.
- •138. Методы вращения матрицы факторных нагрузок.
- •139. Расчет значений факторов по отдельным наблюдениям.
- •140. Применение результатов факторного анализа при построении регрессионных уравнений.
- •141. Назначение дискриминантного анализа.
- •142. Переменные группировочные и независимые
- •143.Пошаговое включение переменных (переменные в модели и вне модели)
- •144. Канонический анализ, его составляющие
- •150.Матрица классификации
133. Решение проблемы общности при факторном анализе.
Проблема общности - переход от редуцированной матрицы h²j.
В матрице парных коэффициентов корреляции между исходными признаками на диагонали стоят ед., в редуцированной матрице - общности.
Исходная посылка: в качестве общности берут величину в интервале:
R²jот ≤ h²j ≤ c² j,
R²jот - коэффициент парной детерминации исходного признака с каждым признаком,
c² j - надежность - на практике в качестве общности берут R².
134. Установление числа факторов.
Для определения числа факторов используется:
1. Выделение факторов заканчивается, когда факторы выделены > 90 %;
2. Выделение заканчивается, когда следующий фактор объясняет < 3 % ед. дисперсии.
3. Проверка гипотезы, что общие факторы достаточно полно объясняют исходные признаки.
Для определения числа факторов используется 2 критерия:
1. Кайзера - если фактор не объясняет хотя бы 1 ед. дисперсии, то он не считается фактором.
2. Каменистой осыпи (Кэттеля) - исследуется при переходе от 1го фактора к другому собственное значение (т.е. число ед. диперсии).
135. Простая структура Терстоуна.
Вращение матрицы факторных нагрузок основано на простой структуре Терстоуна:
1. Каждый признак должен иметь высокую факторную нагрузку хотя бы с 1 воображаемым фактором.
2. Каждый фактор должен иметь высокую нагрузку с несколькими исходными переменными.
3. Должен иметь место признаки, которые имеют с одним фактором высокую нагрузку, а с другим - нулевую.
4. Если число факторов > 4, то необходимо иметь как можно большее число переменных с нулевой факторной нагрузкой.
5. Следующее стремление к большему числу факторов, которые имеют с несколькими факторами высокие нагрузки, а с другими - нулевые.
136. Факторные нагрузки.
Факторный нагрузки - коэффициент корреляции между исходными данными и гипотезой фактора.
137. Вращение матрицы факторных нагрузок и интерпретация факторов.
Вращение матрицы факторных нагрузок основано на простой структуре Терстоуна:
1. Каждый признак должен иметь высокую факторную нагрузку хотя бы с 1 воображаемым фактором.
2. Каждый фактор должен иметь высокую нагрузку с несколькими исходными переменными.
3. Должен иметь место признаки, которые имеют с одним фактором высокую нагрузку, а с другим - нулевую.
4. Если число факторов > 4, то необходимо иметь как можно большее число переменных с нулевой факторной нагрузкой.
5. Следующее стремление к большему числу факторов, которые имеют с несколькими факторами высокие нагрузки, а с другими - нулевые.
138. Методы вращения матрицы факторных нагрузок.
Наиболее распространенные методы вращения:
1. Варемакс.
Мы добиваемся max колеблемости факторных нагрузок по исходным переменным.
2. Квартемакс.
Максимируем колеблемость факторных нагрузок по каждой переменной.
139. Расчет значений факторов по отдельным наблюдениям.
Для определения значений факторов реализуется 2 этапа:
1. Предполагает установление коэффициентов регрессии каждого из факторов по исходным переменным.
Матрица коэффициента регрессии находится по следующему алгоритму:
В = А´ * R¯¹, В - матрица коэффициента регрессии,
А´ - матричный фактор нагрузок после вращения,
R¯¹ - обратная матрица для коэффициента корреляции между исходными признаками.
2. Значение фактора по исходным данным:
Р1j = b1Z1j + b2Z2j + … + bnZnj.