- •Общая теория статистики.
- •24.Относительные величины динамики.
- •33. Показатели вариации признака. 34. Размах вариации и среднего линейного отклонения.
- •35. Виды рядов динамики.
- •36. Понятие динамического ряда и его элементы.
- •37. Классификация показателей рядов динамики.
- •38. Моментные и интервальные ряды динамики и их отличительные особенности.
- •42.Средние характеристики ряда динамики.
- •43. Выявление и характеристика основной тенденции временного ряда.
- •44 Статистическое изучение сезонности
- •45 Выборочное наблюдение
- •45.Выборочное наблюдение
- •46. Понятие ошибки выборки. Виды отбора
- •47.Общие понятия об индексах и значение индексного метода анализа
- •48. Способы построения индексов
- •49. Разновидности индексов
- •50. Агрегатные индексы
- •51. Индекс Пааше-Ласпейреса
- •56.Понятие и основные этапы изучения связи явлений. Виды связей и зависимостей признаков
- •58. Построение модели парной регрессии
- •59. Построение модели множественной регрессии
- •60. Способы оценки полученных моделей регрессии
- •61. Мультиколлинеарность и способы ее устранения
61. Мультиколлинеарность и способы ее устранения
Мультиколлинеарность- тесная корреляционная взаимосвязь между отбираемыми для анализа факторами, совместно воздействующими на общий результат, которая затрудняет оценивание регрессионных параметров.Существует два основных подхода к решению этой задачи.
Метод дополнительных регрессий
Строятся уравнения регрессии, которые связывают каждый из регрессоров со всеми остальными
Вычисляются коэффициенты детерминациидля каждого уравнения регрессии
Проверяется статистическая гипотезас помощью F-теста
Вывод: если гипотеза не отвергается, то данный регрессор не приводит к мультиколлинеарности.
Метод последовательного присоединения
Строится регрессионная модель с учетом всех предполагаемых регрессоров. По признакам делается вывод о возможном присутствии мультиколлинеарности
Расчитывается матрица корреляций и выбирается регрессор, имеющий наибольшую корреляцию с выходной переменной
К выбранному регрессору последовательно добавляются каждый из оставшихся регрессоров и вычисляются скорректированные коэффициенты детерминации для каждой из моделей. К модели присоединяется тот регрессор, который обеспечивает наибольшее значение скорректированного
Процесс присоединения регрессоров прекращается, когда значение скорректированного становится меньше достигнутого на предыдущем шаге.
Каким бы образом не осуществлялся отбор факторов, уменьшение их числа приводит к улучшению обусловленности матрицы , а, следовательно, и к повышению качества оценок параметров модели.
Помимо перечисленных методов существует ещё один, более простой, дающий достаточно хорошие результаты — это метод предварительного центрирования. Суть метода сводится к тому, что перед нахождением параметров математической модели проводится центрирование исходных данных: из каждого значения в ряде данных вычитается среднее по ряду:. Эта процедура позволяет так развести гиперплоскости условий МНК, чтобы углы между ними были перпендикулярны. В результате этого оценки модели становятся устойчивыми