![](/user_photo/2706_HbeT2.jpg)
- •Эконометрического моделирования План лекции
- •Введение
- •1.Предмет, цель и задачи эконометрики.
- •2.Этапы становления эконометрики
- •3. Введение в эконометрическое моделирование
- •4. Основные математические предпосылки эконометрического моделирования
- •5. Основные этапы и проблемы эконометрического моделирования
- •Контрольные вопросы:
- •Тема 2. Парная линейная регрессия и корреляция План лекции
- •Введение
- •1. Модель линейной парной регрессии. Метод наименьших квадратов
- •2. Коэффициент корреляции
- •3. Основные положения регрессионного анализа. Теорема Гаусса – Маркова
- •4. Оценка значимости уравнения регрессии. Коэффициент детерминации
- •5. Построение интервальных прогнозов по модели парной регрессии
- •Контрольные вопросы:
- •Тема 3. Множественный регрессионный анализ План лекции
- •Введение
- •1. Классическая нормальная линейная модель множественной регрессии
- •2. Оценка параметров классической регрессионной модели методом наименьших квадратов
- •3. Предпосылки для множественного регрессионного анализа.
- •Теорема Гаусса-Маркова.
- •4. Стандартизированное уравнение линейной множественной регрессии
- •Контрольные вопросы:
- •Тема 4. Множественная корреляция План лекции
- •Введение
- •1. Множественная линейная корреляционная зависимость
- •2. Частные коэффициенты корреляции
- •3. Коэффициент множественной корреляции
- •4. Отбор факторов в случае линейной множественной регрессии
- •Контрольные вопросы:
- •Тема 5. Линейные регрессионные модели
- •1. Суть гетероскедастичности, ее последствия
- •2. Тесты, позволяющие выявить наличие гетероскедастичности остатков
- •3. Устранение гетероскедастичности
- •4. Автокорреляция остатков, ее последствия. Обнаружение автокорреляции остатков
- •Контрольные вопросы:
- •Тема 6. Линейные регрессионные модели
- •1. Фиктивные переменные
- •2. Модели регрессии с фиктивными переменными сдвига
- •3. Модели регрессии с фиктивными переменными наклона
- •4. Критерий г. Чоу
- •Контрольные вопросы:
- •Тема 7. Модели временных рядов План лекции
- •Введение
- •1. Понятие временного ряда. Общий вид модели временного ряда
- •2. Проверка гипотезы существования тенденции
- •3. Стационарные временные ряды и их характеристики. Автокорреляционная функция
- •Авторегрессия первого порядка. Тест Дарбина-Уотсона
- •4. Аналитическое выравнивание (сглаживание) временного ряда
- •6. Процесс построения аддитивной модели временного ряда
- •7. Прогнозирование на основе моделей временного ряда
- •8. Понятие об авторегрессионных моделях и моделях скользящей средней
- •Контрольные вопросы:
- •Тема 8: модели с лаговыми переменными План лекции
- •Введение
- •1. Модели с распределенными лагами
- •2. Модели авторегрессии
- •3. Авторегрессионные модели и их моделирование
- •Контрольные вопросы:
- •Тема 9. Системы линейных одновременных уравнений План лекции
- •Введение
- •1. Структурная и приведенная формы моделей
- •2. Проблема идентификации
- •Матрица коэффициентов (1)
- •Матрица коэффициентов (2)
- •Матрица коэффициентов (3)
- •3. Оценивание параметров структурной модели
- •Условные данные по пяти регионам
- •Контрольные вопросы:
- •Используемая литература
2. Коэффициент корреляции
Перейдем к оценке тесноты корреляционной зависимости. Рассмотрим наиболее важный для практики и теории случай линейной зависимости вида .
Представим уравнение
в эквивалентном виде:
В этой системе величина
(2.14)
показывает, на
сколько величин у
изменится в среднем
,
когда
увеличится на одно х.
Величина
является показателем тесноты линейной
связи и называется выборочным
коэффициентом корреляции
(или просто коэффициентом
корреляции).
Две корреляционные зависимости переменной от приведены на рис. Очевидно, что в случае а) зависимость между переменными менее тесная и коэффициент корреляции должен быть меньше, чем в случае б), так как точки корреляционного поля а) дальше отстоят от линии регрессии, чем точки поля б).
Если
,
то корреляционная связь между переменными
называется прямой,
если
,
- обратной.
При прямой (обратной) связи увеличение
одной из переменных ведет к увеличению
(уменьшению) условной (групповой) средней
другой.
Учитывая (2.13), формулу для представим в виде:
(2.15)
Отметим другие модификации формулы , полученные из формулы (2.15):
(2.16)
(2.17)
Для практических расчетов наиболее удобна формула (2.17), так как по ней находится непосредственно из данных наблюдений и на значении не скажутся округления данных, связанные с расчетом средних и отклонений от них.
Выборочный коэффициент корреляции (при достаточно большом объеме выборки ) так же, как и коэффициент корреляции двух случайных величин, обладает следующими свойствами.
Коэффициент корреляции принимает значения на отрезке [– 1;1], т.е.
. Чем ближе
к единице, тем теснее связь.
При
корреляционная связь представляет линейную функциональную зависимость. При этом все наблюдаемые значения располагаются на прямой линии.
При
линейная корреляционная связь отсутствует. при этом линия регрессии параллельна оси Ох.
3. Основные положения регрессионного анализа. Теорема Гаусса – Маркова
В силу воздействия
неучтенных случайных факторов и причин
отдельные наблюдения переменной
будут в большей
или меньшей мере отклоняться от функции
регрессии
.
Рассмотрим линейный регрессионный анализ, для которого линейная парная регрессионная модель имеет вид:
.
(2.18)
Отметим основные предпосылки регрессионного анализа.
В модели возмущение
(или зависимая переменная ) есть величина случайная, а объясняющая переменная
- величина неслучайная.
Математическое ожидание возмущения равно нулю:
(2.19)
(или математическое
ожидание зависимой переменной
равно линейной функции регрессии:
).
Дисперсия возмущения (или зависимой переменной ) постоянна для любого
(2.20)
(или
)
– условие гомоскедастичности
или равноизменчивости возмущения
(зависимой переменной )).
Возмущения и
(или переменные
и
) не коррелированы:
(2.21)
Возмущение (или зависимая переменная ) есть нормально распределенная случайная величина.
В этом случае
модель
называется классической
нормальной линейной регрессионной
моделью.
Для получения уравнения регрессии достаточно предпосылок 1 – 4. Требование выполнения предпосылки 5 (т.е. рассмотрение «нормальной регрессии») необходимо для оценки точности уравнения регрессии и его параметров.
Оценкой модели
по выборке является уравнение регрессии
.
Параметры этого уравнения
и
определяются на основе метода наименьших
квадратов.
Воздействие
неучтенных случайных факторов и ошибок
наблюдений в модели
определяется с помощью дисперсии
возмущений (ошибок)
или остаточной
дисперсии
.
Несмещенной оценкой этой дисперсии
является выборочная
остаточная дисперсия.
S
2
,
(2.22)
где
– групповая
средняя,
найденная по уравнению регрессии;
– выборочная
оценка возмущения
или остаток
регрессии.
Возникает вопрос,
являются ли оценки
,
и
параметров
«наилучшими»? Ответ на этот вопрос дает
следующая теорема.
Теорема Гаусса – Маркова. Если регрессионная модель удовлетворяет предпосылкам 1 – 4, то оценки , имеют наименьшую дисперсию в классе всех линейных несмещенных оценок.
Таким образом,
оценки
,
в определенном смысле являются наиболее
эффективными
линейными оценками параметров
,
.