- •Понятие и задачи эконометрики, как науки. Эконометрическая модель и ее составляющие.
- •Характеристики случайных величин: поле корреляции, математическое ожидание, среднее значение, выборочная дисперсия, стандартное отклонение.
- •Выборочный корреляционный момент (выборочная ковариация), коэффициент корреляции (r) и его свойства при большом объеме выборки.
- •Виды эконометрических моделей.
- •Понятие регрессионной модели.
- •Системы одновременных уравнений
- •Типы данных при эконометрическом моделировании Пространственные данные
- •Временные ряды
- •Стандартные предположения регрессионного анализа. Понятия гомоскедастичности и гетероскедастичности дисперсии ошибок
- •Модель парной линейной регрессии
- •Метод наименьших квадратов оценки параметров парной регрессионной модели
- •Статистические свойства мнк-оценок параметров уравнения регрессии
- •Использование модели парной линейной регрессии для прогноза
- •Геометрический смысл регрессионной модели, составляющие дисперсии.
- •Доверительный интервал для функции регрессии (для Мx (y)).
- •Доверительный интервал для индивидуальных значений зависимой переменной
- •Доверительный интервал для параметра β регрессионной модели.
- •Доверительный интервал для параметра σ2 регрессионной модели.
- •Основная идея дисперсионного анализа
- •Процедура проверки значимости линейной связи между переменными, использование f-критерия (критерия Фишера-Снедекора)
- •Коэффициент детерминации (r2) и его свойства.
- •Оценка статистической значимости коэффициентов парной линейной регрессии и корреляции.
- •Графический метод проверки стандартных предположений регрессионного анализа.
- •Понятие предельной склонности потребления в модели доход-потребление
- •Приведение степенной модели к линейной форме модели, оценка параметров модели и ее качества
- •Понятие предельной склонности и эластичности функции. Условия постоянства предельной склонности и эластичности функции.
- •Обратно пропорциональная зависимость, Линеаризация этой модели и ее эластичность
- •Модели с убывающей эластичностью, их линеаризация
- •Итерационные методы подбора нелинейных моделей
- •Нелинейные модели множественной регрессии
- •Проверка статистических гипотез о значениях отдельных коэффициентов
- •Отбор факторов в модель линейной множественной регрессии
- •Методы построения уравнения множественной регрессии
- •Метод наименьших квадратов оценивания параметров множественной линейной регрессии
- •Уравнение множественной регрессии в стандартизированном масштабе
- •Понятие частных и средних коэффициентов эластичности
- •Коэффициенты множественной корреляции и детерминации
- •Частные и общий коэффициенты корреляции
- •Проверка значимости уравнения линейной множественной регрессии с помощью критериев Фишера и Стьюдента
- •Метод взвешенных наименьших квадратов (обобщенный мнк)
- •Понятие и примеры фиктивных переменных
- •Модели, содержащие только качественные объясняющие переменные
- •Модели, в которых объясняющие переменные носят как количественный, так и качественный характер
- •Виды моделей временных рядов, составляющие временного ряда
- •Стационарные и нестационарные временные ряды
- •Аддитивная и мультипликативная модели временных рядов
- •Коэффициент автокорреляции, его свойства. Автокорреляционная функция, коррелограмма, их анализ
- •Моделирование тенденции временного ряда
- •Моделирование сезонных колебаний
- •. Автокорреляция в остатках. Критерий Дарбина-Уотсона
- •Алгоритм выявления автокорреляции остатков на основе критерия Дарбина-Уотсона
- •Классификация систем регрессионных уравнений
- •Оценка параметров систем одновременных уравнений
- •Проблема идентификации структурных моделей. Необходимое и достаточные условия идентифицируемости.
- •Методы оценки параметров структурной модели
Типы данных при эконометрическом моделировании Пространственные данные
Это данные в определенный момент времени. Например:
- набор сведений (объем производства, количество работников, доход и др,) по разным фирмам в один и тот же момент времени (пространственный срез);
- данные по курсам покупки/продажи наличной валюты в какой-то день по городу.
Временные ряды
Данные через определенные отрезки времени. Например:
- ежеквартальные данные по инфляции, средней заработной плате, национальному доходу, денежной эмиссии за последние годы;
- ежедневный курс доллара США, цены фьючерсных контрактов на поставку доллара США, котировки акций за ряд последних лет.
Отличительной чертой временных рядов является то, что они естественным образом упорядочены по времени, кроме того, наблюдения в близкие моменты времени часто бывают зависимыми.
Основные положения регрессионного анализа
В регрессионном анализе объясняемая переменная у представляется в виде функции
, (1.15)
где – функция, значение которой является условным математическим ожиданием величины у, полученным при данном наборе значений объясняющих переменных (функция регрессии);
ε - случайная составляющая.
В случае парной регрессии
у = My (x) + ε. (1.16)
Для линейной парной регрессии вид модели:
, (1.17)
где (xi; yi)- элементы выборки, содержащей n пар значений переменных.
Стандартные предположения регрессионного анализа. Понятия гомоскедастичности и гетероскедастичности дисперсии ошибок
Стандартные предположения регрессионного анализа (предположения о процессе порождения данных):
1. В модели не все значения x1, х2, …, хn совпадают между собой (условие идентифицируемости), тогда можно вычислить величину , входящую в формулы числовых характеристик величины х.
2. Значения y1, y2, ..., yn получаются наложением на значения (α + βxi) случайных ошибок εi, то есть значения (α + βxi) рассматриваются как некоторые постоянные, хотя и неизвестные наблюдателю. А значения y1, y2, ..., yn носят случайный характер, определяемый случайным характером εi. Это условие предполагает отсутствие автокорреляционной зависимости остатков от номера наблюдения.
3. Ошибки ε1, ε2,..., εn – независимые случайные величины, имеющие нормальное распределение. Соответственно и y1, y2, ..., yn – независимые случайные величины. Математическое ожидание ошибок Mεi= 0.
Некоторые сведения из теории вероятностей.
Предположим, что задана функция распределения случайной величины ε , то есть для каждого - определена вероятность F(x) того, что наблюдаемое значение отклонения ε не превзойдет величину x, причем эта вероятность не зависит от номера наблюдения i =1, 2, …, n
F(x)=P(εi x). (1.18)
Тогда плотность распределения вероятностей ε то есть закон распределения
f(x)=F'(x). (1.19)
Нормальным называют распределение вероятностей непрерывный случайной величины, которое описывается плотностью
(1.20)
где m - математическое ожидание,
δ- среднеквадратическое (стандартное) отклонение.
График плотности нормального распределения называют нормальной кривой (кривой Гаусса), он представлен на рисунке 1.8.
График симметричен прямой х = m, точки m - δ и m + δ являются точками перегиба. Площадь фигуры между графиком и осью ox равна 1.
Нормальное распределение часто приемлемо для описания случайных ошибок в моделях наблюдений, где результирующая ошибка является следствием сложения большого количества независимых случайных ошибок, каждая из которых достаточно мала.
4. Дисперсия ошибок εi (соответственно и величины y ) постоянна для любого i.
, . (1.21)
Это предположение называют условием равноизменчивости (гомоскедастичности) ошибок εi и соответственно объясняемой переменной yi. Под гетероскедастичностью ошибок εi и объясняемой переменной yi понимают условие
, .