- •Калининград – 2011 Содержание
- •Тема 1. Введение. Эконометрика и эконометрическое моделирование.
- •Тема 2. Временные ряды4.
- •Тема 3. Парная регрессия и корреляция.
- •3.1. Корреляционный анализ
- •Коэффициент парной корреляции
- •Множественный коэффициент корреляции
- •Частный коэффициент корреляции
- •Пример 3.1. Вычисление коэффициентов парной, множественной и частной корреляции.
- •3.2. Регрессионный анализ
- •Оценка параметров регрессионного уравнения
- •Матричная форма записи
- •Решение
- •Анализ статистической значимости параметров модели парной регрессии
- •Интервальная оценка параметров модели
- •Прогнозирование с применением уравнения регрессии
- •Решение:
- •1. Построение линейной модели парной регрессии
- •2. Построение степенной модели парной регрессии
- •3. Построение показательной функции
- •4.Построение гиперболической функции
- •Расчет прогнозного значения результативного показателя:
- •Тема 4. Множественная регрессия.
- •Оценка качества модели регрессии.
- •Использование многофакторных моделей для анализа и прогнозирования развития экономических систем.
- •Построение точечных и интервальных прогнозов на основе регрессионной модели. Какие факторы влияют на ширину доверительного интервала?
- •Коэффициент детерминации:
- •Тема 5. Системы линейных одновременных уравнений.
- •Тема 6. Многомерный статистический анализ
- •Факторный анализ
- •Кластерный анализ
- •Дискриминантный анализ
- •Постановка задачи дискриминантного анализа
- •Алгоритм выполнения дискриминантного анализа
- •4. Рассчитывается объединенная ковариационная матрица по формуле: .
- •Литература по теме 6.
- •Задание для выполнения контрольной работы по дисциплине Задача 1.
- •Приложения
- •Приложение 2. Значения t-критерия Стьюдента при уровне значимости 0,10; 0,05; 0,01 (двухсторонний)
- •Приложение 3. Критические границы отношения r/s
- •Приложение 4. D-статистика Дарбина - Уотсона: d1 и d2, уровень значимости в 5%
- •Основная
- •Дополнительная
- •Правила построения арпсс-моделей
Тема 4. Множественная регрессия.
Линейная модель множественной регрессии имеет вид:
Y i = 0 + 1x i 1 +2x i 2 +…+ m x i m + i , (4.1.)
коэффициент регрессии j показывает, на какую величину в среднем изменится результативный признак Y, если переменную xj увеличить на единицу измерения, т. е. j является нормативным коэффициентом. Обычно предполагается, что случайная величина i имеет нормальный закон распределения с математическим ожиданием равным нулю и с дисперсией .
Анализ уравнения (4.1) и методика определения параметров становятся более наглядными, а расчетные процедуры существенно упрощаются, если воспользоваться матричной формой записи уравнения (4.2.):
Y = X + , (4.2.)
Y – это вектор зависимой переменной размерности п 1, представляющий собой п наблюдений значений уi, Х— матрица п наблюдений независимых переменных X1, X 2, X 3 , … X m, размерность матрицы Х равна п (т+1); — подлежащий оцениванию вектор неизвестных параметров размерности (т+1) 1; — вектор случайных отклонений (возмущений) размерности п 1. Таким образом,
Y = , X = , =
Уравнение (4.1) содержит значения неизвестных параметров 0,1,2,… ,m . Эти величины оцениваются на основе выборочных наблюдений, поэтому полученные расчетные показатели не являются истинными, а представляют собой лишь их статистические оценки. Модель линейной регрессии, в которой вместо истинных значений параметров подставлены их оценки (а именно такие регрессии и применяются на практике), имеет вид
Y =Ха + е=+е, (4.3)
где а — вектор оценок параметров; е — вектор «оцененных» отклонений регрессии, остатки регрессии е = Y - Ха; —оценка значений Y, равная Ха.
Оценка параметров модели множественной регрессии с помощью метода наименьших квадратов.
Формулу для вычисления параметров регрессионного уравнения приведем без вывода
a = (Xт X )-1 X т Y (4.4).
Одним из условий регрессионной модели является предположение о линейной независимости объясняющих переменных, т. е., решение задачи возможно лишь тогда, когда столбцы и строки матрицы исходных данных линейно независимы. Для экономических показателей это условие выполняется не всегда. Линейная или близкая к ней связь между факторами называется мультиколлинеарностью и приводит к линейной зависимости нормальных уравнений, что делает вычисление параметров либо невозможным, либо затрудняет содержательную интерпретацию параметров модели. Мультиколлинеарность может возникать в силу разных причин. Например, несколько независимых переменных могут иметь общий временной тренд, относительно которого они совершают малые колебания. В частности, так может случиться, когда значения одной независимой переменной являются лагированными значениями другой. Считают явление мультиколлинеарности в исходных данных установленным, если коэффициент парной корреляции между двумя переменными больше 0.8. Чтобы избавиться от мультиколлинеарности, в модель включают лишь один из линейно связанных между собой факторов, причем тот, который в большей степени связан с зависимой переменной.
В качестве критерия мультиколлинеарности может быть принято соблюдение следующих неравенств:
ryxi > rxixk , ryxk > rxixk , rxixk < 0.8
Если приведенные неравенства (или хотя бы одно из них) не выполняются, то в модель включают тот фактор, который наиболее тесно связан с Y.