Добавил:
Upload Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:
меры взаимосвязи.docx
Скачиваний:
5
Добавлен:
31.08.2019
Размер:
123.1 Кб
Скачать

Тема 4. Характеристики взаимосвязи признаков

Понятие зависимости вероятностных событий. Общий обзор мер связи и их соответствие типам измерений и шкал.

Оценка связи между качественными признаками, измеренными методом регистрации. Коэффициент "четырех клеточной корреляции" (коэффициент контингенции). Бисериальные коэффициенты корреляции. Коэффициент взаимной сопряженности Чупрова. Коэффициент взаимной сопряженности Пирсона.

Оценка связи между качественными признаками, измеренными методом упорядочивания. Коэффициенты ранговой корреляции ρ–Спирмена и τ–Кендэлла.

Оценка связи между количественными признаками. Коэффициент корреляции r Пирсона. Корреляционное отношение η (общее представление).

Графический метод анализа корреляционной матрицы. Метод корреляционных плеяд. Понятие графов. Ориентированный граф. Мощность плеяды. Крепость плеяды. Типы структур: цепь, кольцо, звезда, решетка. Максимальный корреляционный путь как аналог однофакторного решения Спирмена (центроидный метод). Анализ корреляционной матрицы методом построения максимального корреляционного пути. Алгоритм построения максимального корреляционного пути.

Методические рекомендации к изучению темы

При изучении темы таблицу 1 необходимо выучить наизусть, это поможет в дальнейшем выбирать меры оценки взаимосвязей, адекватные данному конкретному случаю. Обратите внимание на то, что пользование данной таблицей предполагает ответ на вопрос — по каким шкалам измерены признаки, между которыми оценивается взаимосвязь.

При работе с алгоритмами мер связи внимательно изучите возможные ограничения в применении и все шаги алгоритма.

После изучения материала лекции ответьте на контрольные вопросы, решите примеры, ответы занесите в конспект.

Материалы лекции. Понятие статистической зависимости

Зависимость (взаимосвязь) между случайными событиями состоит в том, что появление одного из событий изменяет вероятность появления другого события.

Факт взаимосвязи между случайными событиями состоит в совместном изменении меры возможностей их появления (частоты, частости, вероятности). По наличию или отсутствию такого изменения и судят о наличии или отсутствии зависимости между событиями. Это изменение устанавливается на основе анализа двумерного вариационного ряда или таблицы сопряженности.

Например, у некоторой группы людей измерялись два признака. Признак xi, который может принимать одно из четырех значений, и признак yj, который может принимать одно из трех значений. В этом случае таблица сопряженности будет выглядеть следующим образом:

Таблица 12

xi

yj

x1

x2

x3

x4

y1

f11

f21

f31

f41

f-1

y 2

f12

f22

f32

f42

f-2

y 3

f13

f23

f33

f43

f-3

f1-

f2-

f3-

f4-

N

В этой таблице внутри прямоугольника, выделенного жирной чертой, находятся частоты fij, которые отражают число людей в выборке, имеющих какое-то значение xi при условии, что y = yj . Эти частоты называются условными частотами.

Сумма частот по столбикам обозначена как fi- — это безусловные частоты признака xi. Они показывают, сколько человек в выборке имеют значение xi безотносительно к значениям признака у.

Сумма частот по столбикам обозначена как f-j — это безусловные частоты признака уi. Они показывают, сколько человек в выборке имеют значение уi безотносительно к значениям признака х.

На основании таких таблиц сопряженности рассчитываются многие меры связи.

Взаимосвязи между признаками характеризуются силой связи и ее направлением. О силе взаимосвязи свидетельствует абсолютное значение расчетной меры связи: чем она больше, тем сильнее взаимосвязь. О направлении взаимосвязи мы судим по знаку расчетной меры связи1: положительный знак — взаимосвязь прямая или положительная, отрицательный знак — взаимосвязь обратная или отрицательная.

Проиллюстрировать направление взаимосвязей можно при помощи следующего рисунка.

Рис. 17. Диаграммы рассеивания первичных данных для случаев различных взаимосвязей между ними

Предположим, у некоторой группы испытуемых измерены два признака — X (ось абсцисс) и Y (ось ординат). Каждый испытуемый на такой двумерной плоскости займет строго определенное место в зависимости от сочетания значений признаков X и Y у данного человека.

На графике слева показана диаграмма рассеивания для случая положительной зависимости между признаками (рост значений одного признака сочетается с ростом значений другого признака).

Средний график иллюстрирует отрицательную зависимость: рост значений одного признака сочетается с уменьшением значений другого признака.

График справа — отсутствие зависимости: четкой закономерности сочетания значений признаков не прослеживается, встречаются любые варианты.

Взаимосвязи характеризуются двумя свойствами: силой и направлением. О силе взаимосвязи мы судим по абсолютной величине данной меры: чем она больше, тем сильнее взаимосвязь. На направление зависимости (прямая или обратная взаимосвязь) нам указывает знак данной меры: положительный знак свидетельствует о прямой зависимости, отрицательный знак — об обратной.

Для принятия решения о наличии или отсутствии взаимозависимости между признаками в корреляционном анализе существует правило вывода: Расчетное значение по абсолютной величине сравнивается с табличным значением. Если оно больше или равно критическому (табличному) значению, то делается вывод о наличии взаимозависимости (или взаимосвязь между признаками статистически значима, или взаимосвязь между признаками статистически достоверна). При этом обязательно указывается уровень значимости вывода: при р=0,95 или =0,05 (более слабая взаимосвязь) или р=0,99 или =0,01 (более сильная взаимосвязь).

Для облегчения задачи выбора меры связи, адекватной данному случаю, целесообразно воспользоваться таблицей 13. В этой таблице меры связи приведены в соответствие тем измерительным шкалам, по которым измерены признаки, между которыми необходимо найти взаимосвязь.

Таблица 13