- •4. Цель и задачи системного анализа данных
- •5. Актуальные проблемы системного анализа данных.
- •6.Комплексный системный подход
- •13. Динамические модели
- •14. Модели регионально-методического уровня описания
- •15. Научный аппарат исследования
- •19. Предмет исследования.
- •21.Цель исследования
- •31.Интервальная шкала измерения
- •32.Шкала отношений
- •33.Понятие об эмпирическом исследовании в психологии
- •43. Отчет об эмпирическом исследовании.
- •44. Стадии статистического исследования.
- •45. Вариационный ряд.
- •49. Оценка достоверности статистических показателей
- •52. Выборочная совокупность.
- •54. Проверка нормальности распределения измеренной переменной
- •55. Меры центральной тенденции: мода, медиана, среднее арифметическое.
- •57. Эксцесс (е).
- •62.Коэффициент корреляции Пирсона
- •65. Метод выравнивания динамического ряда по прямой.
- •66. Прогноз.
- •68. Многофакторный дисперсионный анализ
- •71. Интерпретация данных и результатов статистического анализа (решение задач).
45. Вариационный ряд.
Вариационный ряд, последовательность каких-либо чисел, расположенная в порядке возрастания их величин. Например, В. р. чисел 1, —3, 8, 2 имеет вид —3, 1, 2, 8. Промежуток между крайними членами В. р. называют интервалом варьирования, а длину этого интервала — размахом. В математической статистике понятие В. р. составляет основу теории решения так называемых непараметрических задач. Вариационный ряд — упорядоченная по величине последовательность выборочных значений наблюдаемой случайной величины.
47. Статистический критерий — строгое математическое правило, по которому принимается или отвергается та или иная статистическая гипотеза с известным уровнем значимости. Построение критерия представляет собой выбор подходящей функции от результатов наблюдений (ряда эмпирически полученных значений признака), которая служит для выявления меры расхождения между эмпирическими значениями и гипотетическими.
Параметрическими называются те статистические критерии, которые используют в процессе расчетов параметры распределения, то есть средние значения и дисперсии (среднеквадратические отклонения). Помимо этого, должно выполняться требование соответствия эмпирического распределения нормальному распределению (по крайней мере, с известной степенью приближенности). Существуют способы проверки такого соответствия, например, . χ2 - критерий Пирсона. Примером параметрического критерия может служить t – критерий Стьюдента, позволяющий непосредственно оценивать различия в средних между двумя выборками (сравнивать среднее значение выборки с каким-либо заданным числом).
Непараметрическими называются критерии, не включающие в формулу расчета параметры распределения, и оперирующие частотами или рангами. К ним относятся:
Q- критерий Розенбаума; Алгоритм ранжирования; U- Манна-Уитни;
G – критерий знаков; Т- критерий Вилкоксона; χ2 - критерий Пирсона; l - критерий Колмогорова-Смирнова; Критерий j* - угловое преобразование Фишера.
Q – критерий Розенбаума. Назначение. Используется для оценки различий между двумя выборками по уровню какого-либо признака, измеренного количественно. В каждой из выборок должно быть не менее 11 испытуемых (значений).
U – критерий Манна-Уитни. Предназначен для оценки различий между двумя выборками по уровню какого-либо признака, количественно измеренного. Он позволяет выявлять различия между малыми выборками.
G – критерий знаков. Предназначен для установления общего направления сдвига исследуемого признака. Он позволяет установить, в какую сторону в выборке в целом изменяются значения признака при переходе от первого измерения ко второму.
Т – критерий Вилкоксона. Пред.для сопоставления показателей, измеренных в двух разных условиях на одной и той же выборке испытуемых. Он позволяет установить не только направленность изменений, но и их выраженность, то есть, способен определить, является ли сдвиг показателей в одном направлении более интенсивным, чем в другом.
c2 критерий Пирсона. Прим. в 2х целях:1) для сопоставления эмпирического распределения признака с теоретическим; 2) для сопоставления двух или более эмпирических распределений одного и того же признака.
Критерий j* - угловое преобразование Фишера. Критерий предназначен для сопоставления двух выборок по частоте встречаемости интересующего исследователя эффекта.
Параметр., в отличие от непараметрических требуют выдвижения допущений, касающихся характеристик, свойств и формы распределений совокупностей, из к-рых извлекаются анализируемые с помощью них выборки. К ним относятся предположения о нормальности распределений совокупностей (t, F, r/R) однородности дисперсии (t, F), линейности регрессии (bx∙y, r/R), непрерывности мер/переменных и равенства интервалов измерительной шкалы.
Центральное место среди параметрических критериев в многомерной статистике занимают λ-критерий Уилкса и предложенная Бартлетом аппроксимация распределения λ через распределение χ2 (V - критерий). λ - критерий Уилкса — типовая статистика для проверки значимости различий между групповыми центроидами.
46. Описательная статистика используется для простого обобщения данных, полученных в рамках выборочного исследования.
К базовым методам описательной статистики относятся процентные показатели, меры центральной тенденции, меры вариации и парные коэффициенты связи. Они позволяют обобщить данные, имеющиеся по выборке.
Процентные показатели используются для того, чтобы частотное распределение по той или иной переменной привести к основе 100 (аналогично, пропорции используются для приведения данных к основе 1).
Меры центральной тенденции (мода, медиана и среднее арифметическое) дают информацию о типичном или центральном значении распределения. Мода говорит о наиболее часто встречающемся значении, медиана – о серединном значении, среднее арифметическое – о наиболее ожидаемом значении.
Меры вариативности говорят о степени неоднородности распределения (например, коэффициент изменчивости категорий, стандартное отклонение и др.).
Парные коэффициенты связи предназначены для анализа силы и направления связей между переменными. В этот класс входит достаточно большое количество методов, которые можно разделить на две группы: первая группа предназначена для анализа переменных, имеющих малое количество категорий и представленных в виде таблиц сопряженности (например, V-Крамера для номинальных переменных и Гамма для порядковых); вторая группа методов предназначена для ситуаций, когда переменные имеют большое количество категорий, для группировки которых не существует очевидных границ, либо же когда такая группировка может привести к потере части информации (например, коэффициенты корреляции Пирсона или Спирмена).