Добавил:
Upload Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:
Пособие по статистике.doc
Скачиваний:
48
Добавлен:
15.02.2016
Размер:
3.79 Mб
Скачать

3. Статистическое изучение взаимосвязей

3.1. Вероятностные зависимости

Исследуя экономические процессы, необходимо учитывать взаимозависимость различных факторов и уметь количественно оценить степень влияния одних факторов на другие. Оценка наиболее существенных причинно-следственных связей, а также воздействия одних факторов на другие является одной из основных задач статистики.

Вшкольном курсе изучают функциональные зависимости,, в которых каждому значениюх соответствует определенное значение у. В экономике, опираясь на теорию вероятностей, рассматривают вероятностные зависимости, которые отражают, как в среднем изменится у при изменении х. Например, на рисунке отражена вероятностная зависимость, анализируя которую замечаем, что при одном и том же значении х значения у могут быть совершенно разными, но, в то же время, с увеличением х значения у в среднем увеличивается.

Если удается установить зависимость в среднем, то можно говорить о наличии связи между величинами. Чем больше разброс значение у при одном и том же значении х, тем слабее эта связь, чем меньше разброс значение у при одном и том же значении х, тем сильнее эта связь. В частном случае, когда каждому значению х соответствует только одно значение у, имеем функциональную зависимость.

Задача статистики в области изучения взаимосвязей состоит в количественной оценке их наличия и направления, а также характеристике силы и формы влияния одних факторов на другие. Для ее решения применяются две группы методов: корреляционный анализ; регрессионный анализ.

Корреляционный анализ позволяет измерить силу связи между различными признаками и выделить факторы, оказывающие наибольшее влияние на результативный признак.

Регрессионный анализ позволяет установить форму зависимости, составить аналитическое уравнение, описывающее изменение процесса и тем обеспечить возможность прогнозирования.

3.2.Определение степени тесноты линейной зависимости параметрическим методом

3.2.1 Парная корреляция и парная регрессия

Величины бывают факторными и результативными, зависимыми и независимыми. Если случайных величин две, то говорят о парной зависимости результативной величины от факторной. Если случайных величин больше двух, то говорят о множественной зависимости результативной величины от нескольких факторных величин.

Зависимость между величинами может быть более сильной или более слабой, может быть функциональной, а может ее и не быть вовсе. Очевидно, что силу связи между величинами надо как-то измерять. Для оценки связи между двумя случайными величинами хиуиспользуется числовая характеристика, которую в теории вероятностей называюткорреляционный моменти обозначают. В статистике его называют моментом ковариации и обозначают –cov(xy). Следовательно,=cov(xy).

По физическому смыслу корреляционный момент это математическое ожидание произведения центрированных случайных величин, т.е.

.

Пример 3. 1. В результате опыта получены значения

1

2

3

4

5

3

5

7

9

11

Определить, являются ли зависимыми величины х и у.

Р е ш е н и е. 1. Находим средние значения х и у.

. .

2. Рассчитываем

-2

-1

0

1

2

-4

-2

0

2

4

8

2

0

2

8

3. Вычисляем

=.

Выводы. 1. - это значит, что связь междух и у существует (для независимых случайных величин ).

2. - это значит, что связь положительная, т.е. с увеличениемх значение у в среднем возрастает.

Как видно из расчетной формулы, корреляционный момент зависит от рассеивания. Чем больше значения и, тем больше значение. Одной из характеристик рассеивания является среднее квадратическое отклонение. Чтобы избавиться от влияния рассеивания на корреляционный момент его делят на средние квадратические отклонения. В результате имеем

.

Полученное значение называюткоэффициент корреляции. Коэффициент корреляции характеризует степень тесноты линейной зависимости между случайными величинами х и у. В отличии от корреляционного момента значения коэффициента корреляции могут изменяться от -1 до +1. Принято считать, что если   < 0,30, то связь слабая; при   = (0,3÷0,7) – средняя; при   > 0,70 – сильная, или тесная. Еслиили, то между случайными величинамих и у имеется линейная функциональная зависимость. При этом, если , то связь положительная, если, то связь отрицательная (знакииодинаковы). Если, то линейной вероятностной зависимости между случайными величинамих и у не существует. Однако в этом случае возможно нелинейное взаимодействие, что требует дополнительной проверки и других измерителей.

Пример 3. 2. В условиях примера 1 определить коэффициент корреляции.

Р е ш е н и е. 1. Определяем значения средних квадратических отклонений:

;

2. Вычислим .

Выводы. Между величинами х и у имеется линейная положительная зависимость вида .

Порядок определения коэффициентов иbрассмотрен ранее.

Напомним: ;, где.

Вычислим: .

Величины

Значения

Среднее значение

1

2

3

4

5

3

3

5

7

9

11

7

3

10

21

36

55

25

..

Следовательно, уравнение регрессии имеет вид

.

Пусть х= 3, тогда, что соответствует исходным данным.

Выводы. 1 . Замечаем, как , так и, Это совпадение не случайное. Следовательно, значение корреляционного момента можно рассчитывать по любой из формул :

или .

2. Угол наклона линии регрессии равен .

3. Коэффициент kпоказывает, на сколько в среднем изменитсяу, при изменениехна одну единицу.

4. При , значение.

В рассмотренных примерах присутствовали две случайные величины х и у. Связь двух признаков принято называть парной. Если рассматривается более двух переменных, говорят о множественной связи и описывают ее уравнением множественной регрессии.

Парная корреляция или парная регрессия могут рассматриваться как частный случай отражения связи одной из множества независимых переменных.