- •Статистическое изучение взаимосвязи социально-экономических явлений
- •Часть I понятие статистическое взаимосвязи методы выявления связи
- •1. Причинность, регрессия, корреляция. Этапы статистического изучения связи
- •2. Основные предпосылки применения корреляционно-регрессионного анализа
- •3. Методы выявления корреляционной связи
- •3.1. Параллельное рассмотрение значений х и у в каждой из n единиц. Коэффициент Фехнера
- •Основные показатели деятельности предприятия
- •3.2. Метод группировок
- •Распределение уровня издержек обращения по группам предприятий
- •Корреляционная таблица
- •3.3. Изучение связи между качественными признаками на основе таблиц сопряженности
- •3.3.1. Показатели тесноты связи между двумя качественными признаками
- •Коэффициент взаимной сопряженности Пирсона
- •Коэффициент взаимной сопряженности Чупрова
- •3.4. Изучение тесноты связи между двумя количественными признаками
- •3.4.1. Линейный коэффициент корреляции
- •3.4.2. Коэффициенты корреляции рангов
3.3. Изучение связи между качественными признаками на основе таблиц сопряженности
Построение таблиц, в которых дается комбинационное распределение единиц совокупности по двум признакам, применяется не только к количественным, но и к неколичественным, т.е. к качественным (атрибутивным) признакам: пол, образование, семейное положение, профессия, форма собственности, вид заболеваний, вид преступлений и т.п.
Качественные признаки, взаимосвязи между ними, их влияние на другие показатели (в том числе и количественные) особенно часто приходится изучать при проведении различных социологических исследований путем опроса или анкетирования.
В таких случаях о зависимости между теми или иными показателями (признаками) судят по комбинационному распределению единиц совокупности (респондентов) по двум изучаемым признакам. Это комбинационное распределение обычно оформляется в виде таблиц сопряженности, которые могут иметь разную размерность.
Простейшая форма таблицы взаимной сопряженности - таблица «четырех полей» (четырехклеточная). В ней по каждому признаку выделяются только две группы, чаще всего по альтернативному признаку («да – нет», «хорошо – плохо»), которая имеет следующий вид:
a |
b |
a + b |
c |
d |
c +d |
a + c |
b + d |
a + b + c + d |
Рассмотрим пример (табл.4).
Таблица 4
Таблица «четырех полей»
Группа лиц |
Число лиц | ||
заболевших гриппом |
не заболевших гриппом |
Итого | |
сделавших прививку |
30 (а) |
270 (b) |
300 |
не сделавших прививку |
120 (с) |
80 (d) |
200 |
Итого |
150 |
350 |
500 |
Нетрудно заметить, что среди сделавших прививку подавляющее большинство (270 из 300, или 90%) не заболели гриппом, а среди же не сделавших большая часть заболела (120 из 200, или 60%). Т.о., можно предположить, что прививка положительно влияет на предупреждение заболевания; другими словами, можно предположить, что распределение в таблице (а, b, c, d) не случайно и существует стохастическая зависимость между группировочными признаками. Но суждение о зависимости должно подкрепляться статистическими критериями.
3.3.1. Показатели тесноты связи между двумя качественными признаками
Для измерения тесноты связи между группировочными признаками в таблицах взаимной сопряженности могут быть использованы такие показатели, как коэффициент ассоциации, коэффициент контингенции, коэффициенты взаимной сопряженности Пирсона и Чупрова.
Первые два могут применяться лишь для «четырехклеточных» таблиц, а последние два – для таблиц любой размерности.
Коэффициент ассоциации выражается следующей формулой (применительно к таблице «четырех полей», частоты которых обозначены через a, b, c, d)
. (5)
Связь считается достаточно значительной и подтвержденной, если > 0.5.
Недостаток (причем существенный): если в одной из четырех клеток отсутствует частота (т.е равна 0), коэффициент ассоциации всегда будет равен по модулю 1, и тем самым будет преувеличена мера действительной связи (коэффициент контингенции лишен этого недостатка).
Пример (по табл. 9.4): .
Коэффициент контингенции:
. (6)
Связь считается достаточно значительной и подтвержденной, если > 0.3.
Пример (по табл. 9.4):
.
По значению всегда <.
В нашем примере оба коэффициента характеризуют достаточно большую обратную зависимость между исследуемыми признаками.