Добавил:
Upload Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:
шпоры метрология.doc
Скачиваний:
91
Добавлен:
25.03.2015
Размер:
374.27 Кб
Скачать

20. Задача корреляционного анализа сводится к установлению направления и формы связи между признаками, измерению ее тесноты и к оценке достоверности выборочных показателей корреляции.

Корреляционная связь между признаками может быть линейной и криволинейной (нелинейной), положительной и отрицательной.

Прямая корреляция отражает однотипность в изменении признаков: с увеличением значений первого признака увеличиваются значения и другого, или с уменьшением первого уменьшается второй.

Обратная корреляция указывает на увеличение первого признака при уменьшении второго или уменьшение первого признака при увеличении второго.

Например, больший прыжок и большее количество тренировок — прямая корреляция, уменьшение времени, затраченного на преодоление дистанции, и большее количество тренировок — обратная корреляция.

21. Коэффицие́нт корреля́ции или парный коэффицие́нт корреля́ции — это мера линейной зависимости двух случайных величин.

КОЭФФИЦИЕНТ ДЕТЕРМИНАЦИИ, R², - оценка качества ("объясняющей способности") уравнения регрессии, доля дисперсии объясненной (см.) зависимой переменной у:

R² = 1 - ∑(yi - ŷi)² / ∑(yi - y)² ,

где yi - наблюдаемое значение зависимой переменной y, ŷi - значение зависимой переменной, предсказанное по уравнению регрессии, y - среднее арифметическое зависимой переменной.

Для регрессии линейной парной (см.) К.Д. равен квадрату коэффициента линейной корреляции Пирсона (см.) r². Таким образом, если коэффициент линейной корреляции r = 0,5, то r² = 0,25, т.е. различия в значениях зависимой переменной y на 25% объясняются различиями в значениях независимой переменной x (и на 75% - факторами, не учтенными в уравнении регрессии).

Для регрессии линейной множественной (см.) коэффициент множественной детерминации равен квадрату коэффициента корреляции множественной (см.) R².

Теснота регрессионной связи измеряется коэффициентом детерминации (см.), который интерпретируется как доля дисперсии зависимой переменной y, объясненная независимыми переменными x1, x2,... xk (см. Дисперсия объясненная). Для парной линейной регрессии коэффициент детерминации равен квадрату коэффициента линейной корреляции Пирсона (см.) r², для множественной линейной регрессии - квадрату коэффициента корреляции множественной (см.) R².

22. Парная корреляция. Для оценки степени тесноты и направления связи между двумя линейно зависимыми признаками используется парный (линейный) коэффициент корреляции.

Линейный коэффициент корреляции изменяется в пределах от —1 до +1. Равенство коэффициента нулю свидетельствует об отсутствии линейной связи. Равенство коэффициента —1 или +1 показывает наличие функциональной связи. Знак «+» указывает на связь прямую (увеличение или уменьшение одного признака сопровождается аналогичным изменением другого признака), знак «—» — на связь обратную (увеличение или уменьшение одного признака сопровождается противоположным по направлению изменением другого признака).

23. Уравнение регрессии Y = A + В * Х

Это математическое выражение корреляционной зависимости называется уравнением регрессии. Коэффициенты a и b называются параметрами уравнения регрессии. Параметр а определяет на графике (рис.12) отрезок, отсекаемый графиком уравнения (прямой линией) на оси Y. Параметр b показывает, как изменяется признак Y при изменении признака X. Это "b " еще называют коэффициентом регрессии.

Уравнение регрессии тем лучше описывает корреляционную зависимость, чем ближе она к линейной и чем больше ее достоверность. В случае нелинейной зависимости математически запись может выражаться в виде более сложных уравнений различных кривых линий (экспоненциальной кривой, параболы, гиперболы и т.д.).

При наличии достоверной криволинейной корреляционной зависимости можно подобрать уравнение, хорошо ее описывающее. Особенно эта возможность становится реальной при наличии электронно-вычислительной техники.

24. Интерпретация коэффициента регрессии. Уравнение регрессии не только определяет форму анализируемой связи, но и показывает, в какой степени изменение одного признака сопровождается изменением другого признака.

Коэффициент при х, называемый коэффициентом регрессии, показывает, на какую величину в среднем изменяется результативный признак у при изменении факторного признака х на единицу.

В примере 9 коэффициент регрессии получился равным 24,58. Следовательно, с увеличением посева, приходящегося на душу, на одну десятину сбор хлеба на душу населения в среднем увеличивается на 24,58 пуда.

Средняя и предельная ошибки коэффициента регрессии. Поскольку уравнения регрессии рассчитываются, как правило, для выборочных данных, обязательно встают вопросы точности и надежности полученных результатов. Вычисленный коэффициент регрессии, будучи выборочным, с некоторой точностью оценивает соответствующий коэффициент регрессии генеральной совокупности. Представление об этой точности дает средняя ошибка коэффициента регрессии.

АНАЛИЗ РЕГРЕССИОННЫЙ - группа методов статистического анализа данных, предназначенных для исследования причинных связей между количественными переменными.

25. В практических исследованиях возникает необходимость апроксимировать (математически описать приблизительно) корреляционную зависимость между двумя признаками уравнением. Для линейной зависимости сделать это относительно просто: вытянутое корреляционное поле заменить усредненной прямой линией и найти ее уравнение по статистическим данным коррелируемых признаков. В прямоугольной системе координат уравнение прямой линии записывается в виде: У = А + В * Х Это математическое выражение корреляционной зависимости называется уравнением регрессии. Коэффициенты a и b называются параметрами уравнения регрессии. Параметр а определяет на графике (рис.12) отрезок, отсекаемый графиком уравнения (прямой линией) на оси Y. Параметр b показывает, как изменяется признак Y при изменении признака X. Это "b " еще называют коэффициентом регрессии.

26. Корреляция - систематическая и обусловленная связь между двумя рядами данных.

Корреляция - связь переменных, при которой одному значению одного признака соответствует несколько значений другого признака, отклоняющегося в ту или иную сторону от своего среднего значения.

Нулевая гипотеза - предположение об отсутствии взаимосвязи или корреляции между исследуемыми переменными.

ГИПОТЕЗА СТАТИСТИЧЕСКАЯ - предположение о некоторых свойствах генеральной совокупности (см.), которое можно проверить, опираясь на данные выборочного исследования. В социологии часто проверяют гипотезы о равенстве средних значений переменной в двух или нескольких группах, об однородности распределений, о статистической связи и независимости переменных и пр.

Г.С. - это форма представления содержательной гипотезы, позволяющая проверить ее статистическими средствами (см.: Статистическая проверка гипотез). В отличие от содержательной гипотезы, Г.С. формулируется в виде двух взаимно исключающих утверждений, называемых нулевой и альтернативной гипотезами. Нулевая гипотеза (см.) (Н0) постулирует отсутствие различий между исследуемыми характеристиками генеральной совокупности или отсутствие связи между переменными. Она выступает в роли утверждения, которое считается справедливым до тех пор, пока не обнаружатся противоречащие ему факты. Доказав с помощью вычислений, что нулевая гипотеза не верна, исследователь косвенно демонстрирует, что признаки на самом деле связаны друг с другом, а различия существуют.

Альтернативная гипотеза (Н1) утверждает существование определенных различий между характеристиками генеральной совокупности или наличие определенного типа связи между переменными. Большинство исследовательских гипотез формулируются как альтернативные. Доказательство альтернативной гипотезы осуществляется косвенно, через отклонение нулевой гипотезы. В то же время принятие нулевой гипотезы во многих случаях означает не отклонение альтернативной гипотезы, а только то, что данные, собранные для ее подтверждения, недостаточно убедительны.

Во многих случаях одна и та же нулевая гипотеза может служить базой для проверки нескольких альтернативных гипотез. Например, исследователь, изучающий связь между употреблением подростками наркотиков и подростковым суицидом, в качестве нулевой гипотезы, вероятно, будет использовать утверждение типа: "употребление наркотиков и суицид не связаны друг с другом". Альтернативные гипотезы могут быть следующими: (1) употребление наркотиков повышает вероятность суицида; (2) употребление наркотиков снижает вероятность суицида; (3) суицид каким-то образом связан с употреблением наркотиков. Альтернативные гипотезы (1) и (2) в этом примере являются односторонними, гипотеза (3) - двусторонней, в ней не уточняется направление постулируемой связи. С точки зрения интерпретации результатов исследования, двусторонняя альтернативная гипотеза обладает меньшей содержательной ценностью, чем односторонние. Однако для некоторых нулевых гипотез односторонние альтернативы сформулировать невозможно.