Добавил:
Upload Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:
Диктовать.docx
Скачиваний:
9
Добавлен:
14.09.2019
Размер:
227.33 Кб
Скачать

4. Метод наимен квадратов (мнк)

Согласно МНК эмпирические коэффициенты регрессии b0 и b1 определяются из того факта, что сумма квадратов расстояний эмпирических значений зависимой переменной от расчетных значений должна быть минимальной.

→min

Необходимым условием существования минимума функции2-х переменных является равенство нулю ее частных производных по неизвестны параметрам b0 и b1

,

= ;

Разделим все на n

, → ,

.

Для практических расчетов последние формулы применять не рекомендуется, т.к. в них происходит округление данных. Лучше использовать след формулы

5.Коэффициент корреляции.

Для практических расчётов коэф-в корреляц. изменяется от -1 до 1.

Если коэф-т корреляц. = 0, то значит, что X и Y некоррелир., если rxy =1, то полная прямая корреляц., если rxy = - 1 – полная обратная корреляц., если 0 <rxy<1, то коррел. – положит. Это знач., что с возрастанием 1-й перемен. возр. и 2-я, если -1<rxy<0, то 1-я возр, а 2-я убывает.

6.Предпосылки метода наименьших квадратов (МНК). Доказано, что для получения по МНК наилучших оценок необходимо, чтобы выполнялись предпосылки (условие Гаусса-Маркова) относит. случайных отклонений.

  • Мат. ожид. случ. отклонения для всех наблюдений =0. Отклонение в среднем не оказ. влияния на зав. переменную

  • Дисперсии случ-х отклон-й явл. пост. вел-й для любых наблюдений

  • Случ отклонения Еi и Еj явл. незав. друг от друга для i ≠ j, т.е. некоррелиров.

  • Выполнимость дан. предпосылки указ. на отсутствие автокорреляции

  • Случ. отклон-е должно быть независимым от экзогенных переменных (M(ЕiXi)) = 0

  • Модель должна быть линейной относительно параметров

Теорема Гаусса-Маркова

Если выполн. предпос. 1-5, то оценки , полученные по МНК явл.

  • несмещёнными. (Это знач., что ср. значение М(b0) = β0, М(b1) =β1))

  • оценки явл. состоятельными. Это знач. что их дисперсии при ↑ числа наблюд-й → к 0.

  • оценки явл. эффект. Это знач., что они имеют наименьшую дисперсию по сравнению с люб. др. оценками

7. Анализ точности определения оценок коэффициентов регрессии

Оценки коэффициентов регрессии b0 и b1 является тем надежнее, чем меньше их дисперсии. D(b0) и D(b1), то есть чем меньше их разброс вокруг β0 и β1.

Надежность оценок тесно связана с дисперсией случайных отклонений, фактически является дисперсией D(У/хi) случайной переменной У.

Выведем формулы связи дисперсий оценок коэффициентов с дисперсией случайных отклонений.

Для этого представим формулу для определения b0 и b1 в виде линейных функций относительно значений переменной У:

, так как

Обозначим , тогда

, ;

Так как предполагается, что дисперсия У постоянна и не зависит от Х, ci и di можно рассмотреть как некоторые постоянные, следовательно:

(1)

(2)

Из функции 1 и 2 видно, что:

  1. Дисперсии оценок прямо пропорциональны дисперсии случайного отклонения, следовательно, чем больше фактов случайности, тем менее точными будут оценки.

  2. Чем больше число наблюдений n, тем более точными будут оценки.

  3. Чем больше дисперсия объясняющей переменной, тем меньше дисперсия оценок коэффициентов.

Но так как случайные отклонения εi по выборке определены быть не могут, то при анализе надежности оценок они заменяются оценками:

, а их дисперсии заменяются несмещенной оценкой

.

В этом случае выборочные исправления дисперсии будут иметь вид:

,

, где – необъясненная дисперсия – доля разброса зависимой переменной, которая не объясняется регрессией.

– стандартная ошибка регрессии

и стандартные ошибки оценок коэффициентов регрессии.

Соседние файлы в предмете [НЕСОРТИРОВАННОЕ]