Добавил:
Upload Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:
практические статистика.doc
Скачиваний:
28
Добавлен:
29.08.2019
Размер:
1.36 Mб
Скачать

4 Контрольные вопросы:

4.1. Что такое индекс?

4.2. В чем состоит специфика индексов?

4.3. В чем состоит отличие индивидуальных индексов от общих?

4.4. Индексы агрегатной формы.

4.5. В чем состоит отличие цепных индексов от базисных?

4.6. Какая существует взаимосвязь между цепными и базисными индексами?

4.7. Применение индексов в экономико-статистических расчетах.

4.8. Раскройте сущность индекса цен.

4.9. Средние индексы. Взаимосвязь средних и агрегатных индексов.

4.10. Индексы переменного, постоянного состава, структурных сдвигов. Их взаимосвязь.

Практическая работа 7

«Выявление и статистический анализ взаимосвязи

социально-экономических явлений»

1 Цель: Освоить методику выявления наличия взаимосвязи между показателями, а также методику количественной характеристики взаимосвязи, пользуясь редактором формул и Мастером диаграмм MS Excel.

2 Резюме

Связи, которые проявляются не в каждом отдельном слу­чае, а лишь в совокупности данных, называются статистиче­скими. Они выражаются в том, что при изменении значения фактора х изменяется и условное распределение результатив­ного признака у: разным значениям одной переменной (фактора х) соответствуют разные распределения другой перемен­ной (результата у).

Корреляционная связь — частный случай статистической связи, при котором разным значениям одной переменной х соответствуют разные средние значения переменной у. Корреляционная связь предполагает, что изучаемые пере­менные имеют количественное выражение.

Статистическая связь — более широкое понятие, оно не включает ограничений на уровень измерения переменных. Переменные, связь между которыми изучается, могут быть как количественными, так и неколичественными.

Статистические связи отражают сопряженность в измене­нии признаков х и у, которая может быть вызвана не причин­ными отношениями, а так называемой ложной корреляцией. Например, в совместных изменениях хиу обнаруживается определенная закономерность, но она вызвана не влиянием х на у, а тем, что обе переменные изменяются под влиянием общей причины z. Следует проявлять осторожность при интерпретации результатов измерения статистических связей. Когда говорится, что изменение у на 70% зависит от изменения фактора х, нужно понимать условность такого вывода и ставить под сомнение как сам вывод о зависимости, так и цифру — в данном случае 70%, которая отражает не только влияние изучаемого фактора, но и всего комплекса факторов, связанных с ним.

Показатели корреляции измеряют тесноту связи между признаками. Все показатели корреляции изменяются по аб­солютной величине в интервале [0; 1].

Коэффициент парной корреляции — мера тесноты линейной связи между двумя переменными хиу. Линейная связь может быть либо прямой, ryx > 0, либо обратной, ryx< 0, так что —1 < ryx< + 1. Коэффициент корреляции — это симметрич­ная мера связи, т.е. ryx = rxy. Квадрат коэффициента корре­ляции называется парным коэффициентом детерминации.

Коэффициент частной корреляции измеряет чистую (ча­стную) корреляцию между двумя переменными при погаше­нии связи с другими переменными. Коэффициент частной корреляции также является мерой линейной связи и прини­мает значения от минус 1 до плюс 1.

Коэффициент частной детерминации переменной хk — это доля дисперсии у, дополнительно объясненной включением переменной xk. в величине дисперсии у, не объясненной пе­ременными, ранее включенными в анализ (x1, …xk-1).

Коэффициент множественной корреляции измеряет связь между у и всеми учтенными признаками-факторами: — 1 ≤ R2x, y, z ≤ 1. Коэффициент множественной детерминации показывает, какую часть дисперсии у объясняют учтенные в анализе при­знаки-факторы: 0 ≤ R2x, y, z ≤ 1.

Математическое описание зависимости изменений пере­менной у в среднем от изменений переменной х называется уравнением парной регрессии. Чаще всего используется ли­нейное уравнение парной регрессии: у = а + bх. Знак при ко­эффициенте регрессии b соответствует направлению зависи­мости у от х: b > 0 — зависимость прямая, b < 0 — зависимость обратная. Коэффициент регрессии bух измеряет силу зависимости y от x. Это ассиметричный показатель, т.е. bух bху. Интерпретация свободного члена а зависит от того, имеется ли в исходных данных нулевое значение х (и возможно ли оно).

Математическое описание корреляционной зависимости результативной переменной от нескольких факторных пере­менных называется уравнением множественной регрессии. Параметры уравнения регрессии оцениваются методом наи­меньших квадратов (МНК). Уравнение регрессии должно быть линейным по параметрам.

Если уравнение регрессии отражает нелинейность связи между переменными, то регрессия приводит к линейному виду (линеаризуется) путем замены переменных или их логариф­мирования. Вводя в уравнение регрессии фиктивные переменные, можно учесть влияние неколичественных переменных, изолируя их от влияния количественных факторов. Если коэффициент детерминации близок к единице, то с помощью уравнения регрессии можно предсказать, каким бу­дет значение зависимой переменной для того или иного ожи­даемого значения одной или нескольких независимых пере­менных.

Таблица 1 – Количественные критерии оценки тесноты связи

Величина коэффициента корреляции

Характер связи

До ± 0,3

Практически отсутствует

от ± 0,3 до ± 0,5

Слабая

от ± 0,5 до ± 0,7

Умеренная

от ± 0,7 до ± 1,0

сильная

Метод наименьших квадратов:

n a0 + a1 x =  y

a0 x + a1  x2 =  xy

где n – объем исследуемой совокупности (число единиц наблюдения).

В уравнениях регрессии параметр а0 показывает усредненное влияние на результативный признак неучтенных (не выделенных для исследования) факторов, параметр а1 (а в уравнении параболы и а2) – коэффициент регрессии – показывает, насколько изменяется в среднем значение результативного признака при увеличении факторного на единицу собственного измерения.

Л инейный коэффициент корреляции был впервые введен в начале 90 –х г.г. Пирсоном, Эджвортом и Велдоном и характеризует тесноту и направление связи между двумя коррелируемыми признаками в случае наличия между ними линейной зависимости. В теории разработаны и на практике применяются различные модификации формул расчета данного коэффициента:

И другие формулы для расчета линейного коэффициента корреляции.

(где n – объем совокупности (число наблюдений).)

Линейный коэффициент корреляции изменяется в пределах от минус до плюс единицы. Знаки коэффициентов регрессии и коэффициентов корреляции совпадают. При этом интерпретацию выходных значений коэффициента корреляции можно представить в таблице: Оценка линейного коэффициента корреляции

Таблица 2 - Оценка линейного коэффициента корреляции

Значение линейного коэффициента

корреляции

Характер связи

Интерпретация связи

r = 0

Отсутствует

-

0<r< 1

Прямая

С увеличением Х увеличивается Y или с уменьшением Х уменьшается Y

- 1<r < 0

Обратная

С увеличением Х уменьшается Y или с уменьшением Х увеличивается Y

r = 1

Функциональная

Каждому значению факторного признака строго соответствует одно значение результативного признака