- •0.1. Эконометрика как наука.
- •0.2. История возникновения эконометрики
- •0.3.Элементы теории вероятности.
- •0.3.1. Вероятностные характеристики случайных переменных
- •0.3.2.Законы распределения:
- •0.3.3 Условное математическое ожидание
- •0.4.Элементы математич статистики
- •0.4.1.Оценивание «хороших» св-в оценок
- •1) Состоятельность оценок
- •2) Несмещенность оценок
- •3) Эффективность оценок
- •0.4.2. Проверка гипотез и интервальное оценивание
- •1.1 Определение линейной однофакторной регрессии.
- •1.1.1.Основные понятия регрессионного анализа
- •1.1.2. Линейная однофакторная регрессия
- •1.1.3. Матричная запись линейной регрессии
- •1.1.4 Оценки параметров регрессии
- •1.1.5 Смысл коэффициента регрессии
- •1.2 Проверка адекватности ру
- •1.2.1 Показатели качества подгонки
- •1.3 Предпосылки мнк (ls)
- •1.3.1. Общие положения мнк
- •1.3.2. Выполнение первой предпосылки мнк (случайный характер остатков)
- •1.3.5 Выполнение 4-го условия мнк (отсутствие автокорреляции остатков)
- •1.3.6 Выполнение 5-го условия мнк (нормальность остатков)
- •1.4. Устранение нарушения предпосылок мнк для оценки парной регрессии
- •1.3.4. Выполнение третьей предпосылки мнк (гомоскедастичность остатков)
- •1.4.1. Автокорреляция остатков
- •1.4.2.Гетероскедастичность остатков и избавление от нее
- •1 Подход: преобразование исходных данных
- •2 Подход: применение другого метода оценивания коэф-ов регрессии.
- •3 Подход) включение дисперсии в модель
- •1.4.3. Метод максимального правдоподобия.
- •2.1 Множественная линейная регрессия
- •2.1.1. Основные понятия
- •2.1.2. Методы оценивания коэффициентов линейной многофакторной регрессии.
- •2.2.Проверка адекватности уравнений линейной множественной регрессии
- •2.2.1. Проверка качества подборки мнк.
- •2.2.2.Проверка гипотез для млр
- •2.2.3. Допущение выполнения мнк или получение «хороших» оценок
- •2.3. Мультиколлинеарность факторов
- •2.3.1. Обнаружение мультиколлинеарности
- •2.3.2 Избавление от мультиколлинеарности. Метод главных компонент
- •2.4.Учет качественных факторов
- •2.4.1.Множественные переменные
- •2.4.2. Фиктивные переменные
- •2.4.3. Структурные изменения тенденций. Тест Чоу.
- •2.4.4. Модели бинарного выбора
- •3.1.Виды нелинейной зависимости
- •3.1.1.Основные понятия
- •3.1.2. Методы оценивания линеаризуемых функций:
- •3.2.Проверка адекватности нелинейной регрессии
- •3.2.1. Показатели качества подгонки
- •3.1.3. Нелинеаризуемые функции и методы их оценки
- •1 .Квазиньютоновский
- •2.Симплекс-метод
- •3.Метод Хука-Дживса
- •3.2.2. Проверка гипотезы о значимости нелинейных моделей
- •3.2.3. Проверка выполнения условий для получения «хороших» оценок методом оценивания
- •3.3.Выбор типа зависимости
- •3.3.1. Теоретические предпосылки
- •3.3.2. Процедура Бокса – Кокса и тест Зарембеки
- •Тест Зарембеки
- •3.3.3.Производственные функции (пф)
- •3.3.4. Коэффициент эластичности
- •3.4.Спецификация и прогноз регрессионных уравнений
- •3.4.1. Информационные критерии (критерий Акайке, Шварца)
- •3.4.2. Ложная регрессия
- •3.4.3. Прогноз по регрессионным моделям. Доверительный интервал.
- •3.4.4. Применение регрессионного анализа в хеджировании
- •4.1.Понятие и виды сру
- •4.1.1. Система независимых уравнений
- •4.1.2. Системы рекурсивных уравнений
- •4.2. Структурный и приведенный виды сру
- •4.3 Идентификация модели
- •4.4 Оценка параметров сру
- •4.4.1.Кмнк.
- •4.4.2.Дмнк.
- •4.4.3.Тмнк.
- •5.8.2 Доверительный интервал в прогнозах
- •5.8.3 Общая схема прогнозирования на основе временных рядов
- •5.1 Общие положения о временных рядах
- •§ 5.2.1. Модель Брауна
- •§ 5.2.2. Модель Хольта.
- •5.2.Адаптивные модели.
- •5.2.3. Модель Хольта-Уинтерса
- •5.4Оценка тренда
- •5.4.1Параметрические методы оценки тренда
- •5.4.2. Метод скользящих средних
- •5.5 Оценка сезонной компоненты.
- •Аддитивная сезонная модель:
- •5.5.1 Оценка сезонной компоненты с помощью тригонометрических функций.
- •5.5.2. Метод сезонных индексов.
- •5.5.3. Прогнозирование сезонной компоненты
- •5.6. Моделирование стационарных случайных процессов
- •5.6.1. Авторегрессионные модели
- •Процесс Юла
- •Моделирование стационарных процессов
- •5.6.3Модель скользящей средней.
- •5.6.4Модель арсс (аrма)
- •5.6.5 Модели ap проинтегрированного скользящего среднего (арпсс).
- •Спектральный анализ Фурье.
- •5.7Спектральная плотность случайного процесса.
- •Различные параметры спектров.
- •5.8Прогнозирование временных рядов.
- •5.8.1 Адекватность математических моделей временных рядов.
- •Параметрические
- •Непараметрические
- •5.7. Периодограмма и спектрограмма
- •5.6.2.Понятие автокорреляции и частная автокорреляция
- •Следствия автокорреляции остатков
0.3.1. Вероятностные характеристики случайных переменных
Опред-е ф-и плотности вероятности F(x) – Ф-я, кот для любого интервала [x1, x2] на 0х позволяет опред вероятность того, что случ переменная х находится в этом интервале.
Р(х1≤x≤х2)=
Матожидание случ величины - срвзвешенного знач данной случ величины: Для Д. с/в – М (х) (в зап.уч.- Е (х) ):
М(х)=
Для Н. с/в:
М (х)= - не собственный интеграл.
Свойства:
1.М(const)= const
2.M(aX+b)=aM(X)+b, a,b- const;
3.M(X+Y)= M(X)+M(Y), X,Y- независ случ переменные;
4.M(X*Y) = M(X)*M(Y), X,Y- независ случ переменные.
Дисперсия - отражает относительно, разброса случайной величины относительно среднего значения (рассеяние около среднего значения)
Для Д. с/в:
Д(х)=(х–М(х))2= 2pi;
Для Н. свойств:
Д(х)= 2
Свойства Д (Х):
1.Д (а)=0;
2.Д (Х+У) =Д (Х)+Д (У);
3.Д (аХ) =а2Д (Х)
4.Д(Х) = М(Х2) – [М(Х)]2
Момент первого порядка есть среднее значение (мат ожид) случайной величины Момент 2-го порядка есть ср кв случайной величины.
Часто используется так называемое сркв-ое значение случайной величины, представляющее собой корень квадратный из сред. квадрата случайной величины:
Иногда рассматривается центрированное значение случайной величины x0=х-х~, где х~ —среднее значение.
Если х — случ величина, а х~ — ср значение этой величины, то величина х-х~ есть отклонение случ величины от ее ср значения. Это отклонение является случ величиной, как и сама величина х.
Ср. отклонением А называется ср. значение (мат ожидание) абсолютной величины отклонения.
Ср отклонение случайной величины яв-ся уже не случайной величиной, а обычным числом.
Простейшие св-ва среднеквадратичных отклонений.
1.При сложении независ случ величин Д складываются:
Поэтому срквад-ое отклонение суммы независ случ величин
2. Пусть имеется п случ величин с одинак ср знач. а; и с одинак-ми законами распределения. Тогда их ср арифм-е тоже будет случ. величиной с тем же самым ср знач-ем но срквад-ое отклонение его будет в раз меньше, чем для каждой из составляющих (в случае независ случ величин):
Н-р, если произ-ся п измерений одной и той же физич велич, то их ср ариф-ое, хотя тоже яв-ся случ велич-ой, но всегда надежнее (имеет меньшее сркв-ое отклонение), чем каждое измерение в отдельности. Здесь случ ошибки измерения в известной мере компенсируются. Но надо помнить, что систематич-е ошибки приборов при этом ост-ся в полной мере в составе ср ариф-го и никакой массовостью измерений скомпенсированы быть не могут.
3. Для п случ величин, независ и имеющих одно и то же ср значение х~, ср ариф-ое будет при достаточно большом п как угодно мало отличаться от среднего значения х~ (с вер-ю, как угодно близкой к единице). Замечание в скобках означает, что это практически достоверно, но не абсолютно, потому что ср ариф-ое есть все же случ величина. Т.о, при большом п и указанных условиях
Этот закон больших чисел, доказанный П. Л. Чебышевым, имеет первостепенное значение для обработки экспер-х данных и для учетной статистики.
Введем теперь понятие интегрального закона распределения. Интегральным законом распределения или ф-ей распред-я наз-ся вероятность того, что случ величина примет значение, меньшее некоторого значения х.