Добавил:
Upload Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:
Статистические методы в психологии.doc
Скачиваний:
515
Добавлен:
14.04.2015
Размер:
2.29 Mб
Скачать

6. Нелинейный регрессионный анализ

В большинстве случаев нелинейные регрессионные зависимости между случайными величинами стараются объяснить, используя технику линейного анализа. Для этого выполняются следующие процедуры:

  • преобразование и замену переменных, которая приводит к линейной модели, затем

  • линейный регрессионный анализ и, наконец,

  • обратное преобразование и замену переменных, для получения оценок параметров нелинейной регрессионной модели.

Случаи, наиболее часто встречающиеся на практике, иллюстрируются приведенной ниже таблицей:

Исходная модель

Преобразование

Тип преобразования

логарифмическое

обратное (отношение)

Полиномиальное

7. Проблемы регрессионного анализа

Регрессионный анализ является основой для предсказания поведения случайного явления (процесса) за пределами данных. Уже в самом простом случае – линейной регрессии – продолжение регрес-сионной прямой за пределы интервала данных (аргумента) является простейшей формой предсказания. Помимо этого, для предсказания – прогноза развития явления или процесса по располагаемым данным – наиболее часто применяются следующие стандартные процедуры, которые представлены в пакете анализа MSExcel:

Скользящее среднее. Используется для расчета значений в прогнозируемомпериоде на основе среднего значения переменной для указанного числа предшествующих периодов. Скользящее среднее, в отличие от простого среднего для всей выборки, содержит сведения о тенденциях изменения данных. Этот метод может использоваться для прогноза сбыта, запасов и других процессов. Расчет прогнозируемых значений выполняется по следующей формуле:

где:

  • n – число предшествующих периодов, входящих в скользящее среднее;

  • Aj – фактическое значение в момент времениj;

  • FT– прогнозируемое значение в момент времениT.

Экспоненциальное сглаживание. Применяется для предсказания значения на основе прогноза для предыдущего периода, скорректированного с учетом погрешностей в этом прогнозе. При анализе используется константа сглаживания a, по величине которой определяется степень влияния на прогнозы погрешностей в предыдущем прогнозе. Прогноз выполняется по формуле:

Проблемы регрессионного анализа.К числу типичных проблем, возникающих при регрессионном анализе данных, относятся мультиколлинераность, гетероскедастичность и автокорреляция в остатках.

Мультиколлинеарность – термин, означающий наличие высокой степени корреляции влияющих переменных; в результате влияние таких факторов оказывается трудно разделить. Для обнаружения явления мультиколлинеарности в данных используется стандартная техника корреляционного анализа – определяются парные коэффициенты корреляции данных, описывающих влияющие переменные. Если в этих данных обнаруживается тесная корреляция, то, обычно, понижают размерность регрессионной модели исключением одной или нескольких переменных.

Гетероскедастичность– термин, обозначающий неоднородность дисперсии. В отношении регрессии речь идет о неоднородности дисперсии ошибок (остатков). Следует помнить, что метод наименьших квадратов – основа регрессионного анализа – предполагает постоянство дисперсии ошибок (только в этом случае оценки параметров линейной регрессии получаютсяBLUE–BestLinearUnbiasedEstimators(наилучшие линейные несмещенные оценки)). Простейший тест, обнаруживающий гетероскедастичность, заключается в упорядочении данных в порядке возрастания влияющей переменных и проведении регрессионного анализа для двух вариантов – для интервала малых значений и для интервала больших значений влияющей переменной (опуская, к примеру, 5-ю часть средних по величине значений). Затем проводят анализ отношения сумм квадратов ошибок по первому и второму вариантам с использованиемF-распределения с(ND – 2k)/2степенями свободы (здесьN– полное число наблюдений,D– число исключенных наблюдений,k– число оцениваемых параметров), используя в качестве нуль-гипотезы гипотезу о том, что это отношение существенно отлично от 0.Примечание:Если дисперсия ошибки пропорциональнаX2 (частый случай!), то гетероскедастичность может быть устранена делением каждого члена уравнения регрессии наXи переоценкой регрессии в модифицированной таким образом модели.

Автокорреляция (остатков) – явление, встречающееся в регрессионном анализе временных рядов и заключающееся в том, что ошибка (остаток) в один момент времени положительно коррелирован с ошибкой (остатком) в предшествующий момент времени (автокорреляция первого порядка). На практике явление автокорреляции приводит к смещению стандартных оценок параметров регрессии вниз, к некорректности результатов статистических тестов и оценкам доверительных интервалов