- •ОГЛАВЛЕНИЕ
- •ПРЕДИСЛОВИЕ
- •МЕТОДИЧЕСКИЕ МАТЕРИАЛЫ
- •РАБОЧАЯ ПРОГРАММА ДИСЦИПЛИНЫ
- •РЕКОМЕНДАЦИИ ПО САМОСТОЯТЕЛЬНОЙ РАБОТЕ СТУДЕНТА
- •ТЕОРЕТИЧЕСКИЕ МАТЕРИАЛЫ
- •ГЛАВА 1. СТАТИСТИЧЕСКИЕ ПОНЯТИЯ И РАСПРЕДЕЛЕНИЯ
- •§ 1. Введение
- •§ 2. Суть регрессионного анализа
- •§ 3. Некоторые статистические определения
- •§ 4. Нормальное (гауссовское) распределение
- •§ 5. (хи-квадрат)-распределение
- •§ 6. Распределение Стьюдента (t-распределение)
- •§ 7. F-распределение (распределение дисперсионного отношения)
- •§ 8. Статистическая проверка гипотез
- •§ 9. Определение критических значений распределений Стьюдента и Фишера с использованием программы Microsoft Office Excel
- •Резюме
- •Вопросы для самопроверки
- •ГЛАВА 2. ПАРНАЯ ЛИНЕЙНАЯ РЕГРЕССИЯ. УСЛОВИЯ ГАУССА–МАРКОВА
- •§ 1. Основные понятия
- •§ 2. Метод наименьших квадратов
- •§ 3. Предпосылки метода наименьших квадратов
- •§ 4. Анализ точности определения оценок коэффициентов регрессии
- •§ 5. Проверка статистической значимости коэффициентов парной линейной регрессии
- •§ 6. Интервальные оценки коэффициентов линейного уравнения регрессии
- •§ 7. Доверительные интервалы для зависимой переменной
- •§ 8. Проверка общего качества уравнения регрессии. Коэффициент детерминации
- •Резюме
- •Вопросы для самопроверки
- •ГЛАВА 3. МНОЖЕСТВЕННАЯ ЛИНЕЙНАЯ РЕГРЕССИЯ
- •§ 1. Определение параметров уравнения регрессии
- •§ 2. Расчет коэффициентов множественной линейной регрессии
- •§ 3. Дисперсии и стандартные ошибки коэффициентов
- •§ 4. Проверка статистической значимости коэффициентов уравнения регрессии
- •§ 5. Интервальные оценки коэффициентов теоретического уравнения регрессии
- •§ 6. Проверка общего качества уравнения регрессии
- •§ 7. Проверка равенства двух коэффициентов детерминации
- •§ 8. Проверка гипотезы о совпадении уравнений регрессии для двух выборок
- •§ 10. Частные уравнения регрессии
- •Резюме
- •Вопросы для самопроверки
- •ГЛАВА 4. АВТОКОРРЕЛЯЦИЯ СЛУЧАЙНЫХ ВОЗМУЩЕНИЙ
- •§ 1. Суть и причины автокорреляции
- •§ 2. Последствия автокорреляции
- •§ 3. Обнаружение автокорреляции. Критерий Дарбина–Уотсона
- •§ 4. Методы устранения автокорреляции
- •Резюме
- •Вопросы для самопроверки
- •ГЛАВА 5. ГЕТЕРОСКЕДАСТИЧНОСТЬ СЛУЧАЙНЫХ ВОЗМУЩЕНИЙ
- •§ 1. Общие понятия
- •§ 2. Последствия гетероскедастичности
- •§ 3. Обнаружение гетероскедастичности
- •§ 4. Методы смягчения проблемы гетероскедастичности
- •Резюме
- •Вопросы для самопроверки
- •ГЛАВА 6. МУЛЬТИКОЛЛИНЕАРНОСТЬ
- •§ 1. Общие понятия и последствия мультиколлнеарности
- •§ 2. Определение мультиколлинеарности
- •§ 3. Методы устранения мультиколлинеарности
- •Резюме
- •Вопросы для самопроверки
- •ГЛАВА 7. ФИКТИВНЫЕ ПЕРЕМЕННЫЕ В РЕГРЕССИОННЫХ МОДЕЛЯХ
- •§ 1. Модель с одной фиктивной (бинарной) переменной
- •§ 3. Сравнение двух регрессий
- •Резюме
- •Вопросы для самопроверки
- •ГЛАВА 8. НЕЛИНЕЙНАЯ РЕГРЕССИЯ
- •§ 1. Общие понятия
- •§ 2. Степенные модели (логарифмические)
- •§ 3. Обратная модель (гиперболическая)
- •§ 4. Полиномиальная модель
- •§ 5. Показательная модель (лог-линейная)
- •§ 6. Выбор формы модели
- •Резюме
- •Вопросы для самопроверки
- •ГЛАВА 9. ВРЕМЕННЫЕ РЯДЫ
- •§ 1. Общие понятия
- •§ 2. Моделирование тренда временного ряда
- •§ 4. Стационарные ряды
- •§ 5. Процесс авторегрессии AR(p)
- •§ 6. Процессы скользящего среднего MA(q)
- •§ 7. Комбинированные процессы авторегрессии-скользящего среднего ARMA(p, q)
- •§ 8. Модели ARMA, учитывающие наличие сезонности
- •§ 9. Нестационарные временные ряды. Процессы авторегрессии и проинтегрированного скользящего среднего ARIMA(p, k, q)
- •§ 10. Регрессионные модели с распределенными лагами
- •§ 11. Полиномиально распределенные лаги Ш. Алмон
- •Резюме
- •Вопросы для самопроверки
- •ГЛАВА 10. СИСТЕМЫ ОДНОВРЕМЕННЫХ УРАВНЕНИЙ
- •§ 1. Общие понятия
- •§ 2. Идентификация структурной формы модели
- •§ 3. Косвенный метод наименьших квадратов
- •§ 4. Двухшаговый метод наименьших квадратов
- •§ 5. Трехшаговый метод наименьших квадратов
- •Резюме
- •Вопросы для самопроверки
- •ЗАКЛЮЧЕНИЕ
- •ЗАДАНИЯ ДЛЯ КОНТРОЛЯ
- •Тесты для самоконтроля
- •Ключи к тестам для самоконтроля
- •Контрольная работа
- •Вопросы к зачету (экзамену)
- •ГЛОССАРИЙ
- •СПИСОК ЛИТЕРАТУРЫ
Если m →∞, то функция плотности распределения Стьюдента стремится к функции плотности нормального распределения. На практике полагают, что распределение Стьюдента можно заменить нормальным при m>30 .
Распределение Стьюдента широко применяется в следующей стандартной схеме. Для независимых случайных величин X 1,X 2,
..., X m, распределенных по нормальному закону φ(x; μ,σ2), лучшие несмещенные оценки математического ожидания μ и дисперсии σ2 дают статистики
|
|
|
|
|
|
|
|
|
|
|
X 1+X 2 +...+X m |
|
|
|
|
|
|
|
|
||||||||||
|
|
|
|
|
X = |
и |
|
|
|||||||||||||||||||||
|
|
|
|
|
|
|
|
|
m |
|
|
|
|
|
|
|
|||||||||||||
|
|
|
|
|
|
|
|
|
|
2 |
|
|
|
|
2 |
|
|
|
|
|
|
|
|
|
2 . |
||||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|||||
s2 = |
(X 1−X ) |
+(X |
2−X ) |
+...+(X m−X ) |
|||||||||||||||||||||||||
|
|
|
|
|
|
|
|
|
m−1 |
|
|
|
|
|
|
|
|
|
|
|
|||||||||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|||||
|
|
−μ |
|
|
|
|
|
|
|
|
|
|
|
|
|
||||||||||||||
При этом |
X |
подчиняется стандартному нормальному за- |
|||||||||||||||||||||||||||
|
|
σ |
|||||||||||||||||||||||||||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
( |
) |
|
2 |
|
|
|
|
|
||||||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|||||||
кону φ(x;0,1), случайная величина |
|
|
m−1 |
s |
|
= χ2 — закону «хи- |
|||||||||||||||||||||||
|
|
2 |
|
|
|
||||||||||||||||||||||||
квадрат», а отношение: |
|
|
|
|
|
|
|
|
|
|
σ |
|
|
|
|
|
|
|
|
||||||||||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
||||||||||
|
|
|
|
|
|
|
|
−μ |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|||||
|
|
|
|
|
|
|
X |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
||||||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
X |
−μ |
|
|
|
|
|
|
||
|
|
|
|
|
|
|
|
|
|
σ |
|
= |
m−1 |
|
|
|
|
|
|
||||||||||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
χ2 |
|
|
|
|
|
|
|
|
|||||||
|
|
|
|
|
|
|
|
|
|
s2 |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|||
|
|
|
|
|
|
|
|
|
|
σ2 |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
оказывается распределенным по Стьюденту, что позволяет более точно оценивать доверительные интервалы по заданному уровню значимости.
§ 7. F-распределение (распределение дисперсионного отношения)
Анализируя поведение отношения двух выборочных дисперсий, вычисленных по наблюдениям двух выборок, извлеченных из одной и той же нормальной генеральной совокупности, английский
32
статистик Р. Фишер пришел к распределению, которое в дальнейшем стали называть F-распределением и которое может быть определено в общем случае следующим образом.
Рассмотрим m1+m2 независимых и (0,σ2)-нормально распределенных величин ξ1, ξ2, ..., ξm1; η1, η2, ..., ηm2 и положим:
1 |
|
m1 |
2 |
|
||
|
|
|
|
∑ |
ξi |
|
|
|
|
||||
F (m1,m2)= |
m1 i=1 |
. |
||||
|
||||||
1 |
|
m2 |
2 |
|
||
|
|
|
|
∑ |
ηj |
|
|
|
|
|
|||
|
m2 j=1 |
|
|
Та же самая случайная величина может быть определена и как отношение двух независимых и соответствующим образом норми-
рованных χ2- распределенных величин χ2 (m1) и χ2 (m2), т. е.
1 |
χ2 |
(m1) |
|||
|
|
|
|||
F (m1,m2)= |
m1 |
|
. |
||
|
|
||||
1 |
2 |
(m2) |
|||
|
|
|
χ |
||
|
|
|
|||
|
m2 |
|
|
Можно показать, что плотность вероятности случайной величины F (m1, m2) задается функцией:
|
m1+m2 |
|
m |
m2 |
|
|
m |
|
|
|
|
|
||
|
1 |
m2 2 |
|
|
|
|
|
|
|
|||||
|
Γ |
|
m1 |
2 |
|
|
1 |
−1 |
|
|
|
|
|
|
|
2 |
|
|
|
|
|
|
|||||||
|
|
|
|
|
|
|
|
|
||||||
F (m1, m2)= |
|
|
|
|
× |
x 2 |
|
. |
||||||
|
m1 m2 |
|
|
|
|
m +m |
||||||||
|
|
|
|
|
|
1 |
|
2 |
|
|
||||
|
|
Γ |
Γ |
|
|
|
(m1x+m2) |
|
2 |
|
|
|
||
|
|
2 2 |
|
|
|
|
|
|||||||
|
|
|
|
|
|
|
|
(0≤x <∞)
Закон называется F-распределением с числами степеней свободы числителя и знаменателя, равными соответственно m1 и m2.
§ 8. Статистическая проверка гипотез
Гипотеза H0, подлежащая проверке, называется нулевой. Гипотеза H1, которая будет приниматься, если отклоняется H0, называется альтернативной. Например, если проверяется гипотеза о ра-
33
венстве параметра θ некоторому значению θ0 , т. е. H0: θ= θ0 , то в качестве альтернативной могут рассматриваться следующие гипоте-
зы: H 1(1) : θ ≠θ0 ; H 1(2) : θ >θ0 ; H 1(3) : θ <θ0 ; H 1(4) : θ =θ1(θ1 ≠θ0).
Выбор альтернативной гипотезы определяется конкретной формулировкой задачи, а нулевая гипотеза часто подбирается так, чтобы опровергнуть ее и принять альтернативную гипотезу. Статистическая проверка гипотез на основе выборочных данных неизбежно связана с риском принятия ложного решения. При этом возможны ошибки двух родов. Ошибка первого рода состоит в том, что будет отвергнута правильная нулевая гипотеза. Ошибка второго рода состоит в том, что будет принята нулевая гипотеза, в то время как верна альтернативная гипотеза. Вероятность совершить ошибку первого рода принято обозначать буквой α , и ее называют уровнем значимости. Вероятность совершить ошибку второго рода обозначают β . Тогда вероятность не
совершить ошибку второго рода (1−β) называют мощностью кри-
терия. Обычно значения α задают заранее (например, 0,1; 0,05; 0,01), а затем стремятся построить критерий наибольшей мощности. Таким образом, если α=0,05 , то это значит, что не хотят совершить ошибку первогорода более чем в5 случаях из100.
В зависимости от вида конкурирующей гипотезы Н1 выбирают левостороннюю, правостороннюю или двустороннюю критическую область.
При конкурирующей гипотезе H1: θ= θ0 выбирают двустороннюю критическую область. Границы критической области в этом случае определяются из условий:
θкрит1
P(θ≤θкрит1 )= ∫ f (θ H 0) dθ= α2 ,
−∞
+∞
P (θ ≥ θкрит 2 )= ∫ f (θ H 0 ) d θ = α2 ,
θкрит 2
34
где f (θ H 0) — функция плотности распределения случайной ве-
личины θ в случае справедливости Н0, P(θ≤θкрит1) — вероятность того, что θ≤θкрит1 . Тогда вероятность случайной величины
θ попасть за пределы интервала (θкрит1, θкрит2) равна α . Зададим
вероятность α настолько малой, чтобы попадание случайной величины за пределы этого интервала было маловероятным событием. Тогда можно считать, что если гипотеза Н0 справедлива, то при ее проверке с помощью критерия по данным одной выборки на-
блюдаемое значение ˆθ должно наверняка попасть в интервал (θкрит1,θкрит2). Если наблюдаемое значение ˆθ попадет за пределы
указанного интервала, то произойдет маловероятное, практически невозможное событие. Это дает основание считать, что с вероятностью 1−α нулевая гипотеза Н0 несправедлива. Критическая об-
ласть (−∞;θкрит1) (θкрит2;+∞)называется двусторонней критической областью.
f x
α |
|
α |
2 |
|
2 |
|
|
|
θкрит1 |
ˆ |
θкрит2 |
|
θ |
|
Рис. 1.3. Двусторонняя критическая область. Площадь заштрихованной фигуры равна α
35
Правосторонней называют критическую область (θкрит;+∞), определяемую из соотношения:
+∞
P(θ≥θкрит)= ∫ f (θ H 0) dθ=α .
θкрит
Она используется в случае, когда альтернативная гипотеза имеет вид: Н1:θ>θ0 .
f x
|
α |
ˆ |
θкрит |
θ |
Рис. 1.4. Правосторонняя критическая область. Площадь заштрихованной фигуры равна α
Левосторонней называют критическую область (−∞; θкрит), определяемую из соотношения:
θкрит
P(θ<θкрит)= ∫ f (θ H 0) dθ=α.
−∞
Она используется в случае, когда альтернативная гипотеза имеет вид: H 1 : θ <θ0 .
36