Добавил:
Upload Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:
OTVYeT_PO_EKONOMYeTRIKYe.doc
Скачиваний:
17
Добавлен:
25.04.2019
Размер:
566.78 Кб
Скачать

7. Метод наименьших квадратов.

Самым популярным методом идентификации функции является МНК.

Остаток или отклонение – это разница между наблюдаемыми значениями у и ее теоретическими значениями в каждом наблюдении, т.е. при каждом значении х.

  1. Х11 –Ŷ1)2 = е12

  2. Х22 –Ŷ2)2 = е22

Хnn –Ŷn)2 = еn2

S =Σei2 = Σ(уi –Ŷi)2 = Σ(уi – a – bxi)2 min

Система ур-й: частная дисперсия S по a = 0

частная дисперсия S по b = 0

a = yср – bxср

b = ((xy)ср - хсруср)/((x2)ср – xср2) = cov(x,y)/var(x)

МНК (метод нахождения минимума) – метод оценки параметров модели через минимизацию суммы квадратов отклонений фактических значений от теоретических.

8. Свойства коэффициентов регрессии.

Y = α + βx +u

Ŷ = a +bx – теоретическое уравнение регрессия

а- α + ξ1

b – β + ξ2

Свойства коэффициентов регрессии зависят от свойств случайной компоненты и чтобы оценки, найденные по методу наименьших квадратов были наилучшими, т.е. несмещенными, эффективными, состоятельными, случайная компонента должна удовлетворять четырем условиям Гаусса – Маркова.

1. Математическое ожидание случайной компоненты в любом наблюдении должно быть равно 0. E(ui) = 0

Иногда случайная компонента положительна, иногда отрицательна, но она не должна иметь системного смещения ни в одном из двух возможных направлений.

Если уравнение регрессии включает константу, то можно предположить, что это условие выполняется автоматически, т.к. роль константы состоит в определении любой систематической тенденции в поведении у, которую не учитывают объясняющие переменные, включенные в модель.

2.Дисперсия случайной компоненты должна быть постоянна для любых наблюдений. Иногда случайная компонента будет больше или меньше, но не должно быть априорной причины, для того чтобы она порождала большую ошибку в одних уравнениях, чем в других.

σu2-постоянна

Если это условие выполняется, то говорят, что дисперсия ошибки гомоскедостична, в противном случае присутствует гетероскедостичность ошибки.

3. Значения случайной компоненты должны быть независимы в разных наблюдениях. Если это условие выполняется, то говорят, что отсутствует автокорреляция случайной компоненты.

E(ui, uj) = 0, i≠j

Если случайная компонента велика и положительна в одном наблюдении, то это не должно обязательно обуславливать системную тенденцию к тому, что она будет велика и положительна в др наблюдении.

4.Случайная компонента должна быть распределена независимо от объясняющих переменных.

E(ui, xi) = 0

Иногда формулируют дополнительное условие о нормальности распределения случайной компоненты. Если случайная компонента распределена нормально, то и оценки параметров распределены нормально вокруг истинных значений.

9. Нелинейная регрессия. Методы линеаризации.

Два класса нелинейной регрессии:

  1. Нелинейные относительно включенных в анализ объясняющих переменных, но линейные относительно оцениваемых параметров.

  2. Нелинейные по оцениваемым параметрам модели.

Для первого класса может быть использован МНК.

Функции второго класса требуют линеаризации.

Функции второго класса делятся на две группы:

  1. Внутренние линейные функции (могут быть линеаризованы)

  2. Внутренние нелинейные функции

К внутренним линейным функциям может быть применим МНК после их линеаризации.

К внутренним нелинейным функциям этот метод не применяется.

Соседние файлы в предмете [НЕСОРТИРОВАННОЕ]