- •ОГЛАВЛЕНИЕ
- •ПРЕДИСЛОВИЕ
- •МЕТОДИЧЕСКИЕ МАТЕРИАЛЫ
- •РАБОЧАЯ ПРОГРАММА ДИСЦИПЛИНЫ
- •РЕКОМЕНДАЦИИ ПО САМОСТОЯТЕЛЬНОЙ РАБОТЕ СТУДЕНТА
- •ТЕОРЕТИЧЕСКИЕ МАТЕРИАЛЫ
- •ГЛАВА 1. СТАТИСТИЧЕСКИЕ ПОНЯТИЯ И РАСПРЕДЕЛЕНИЯ
- •§ 1. Введение
- •§ 2. Суть регрессионного анализа
- •§ 3. Некоторые статистические определения
- •§ 4. Нормальное (гауссовское) распределение
- •§ 5. (хи-квадрат)-распределение
- •§ 6. Распределение Стьюдента (t-распределение)
- •§ 7. F-распределение (распределение дисперсионного отношения)
- •§ 8. Статистическая проверка гипотез
- •§ 9. Определение критических значений распределений Стьюдента и Фишера с использованием программы Microsoft Office Excel
- •Резюме
- •Вопросы для самопроверки
- •ГЛАВА 2. ПАРНАЯ ЛИНЕЙНАЯ РЕГРЕССИЯ. УСЛОВИЯ ГАУССА–МАРКОВА
- •§ 1. Основные понятия
- •§ 2. Метод наименьших квадратов
- •§ 3. Предпосылки метода наименьших квадратов
- •§ 4. Анализ точности определения оценок коэффициентов регрессии
- •§ 5. Проверка статистической значимости коэффициентов парной линейной регрессии
- •§ 6. Интервальные оценки коэффициентов линейного уравнения регрессии
- •§ 7. Доверительные интервалы для зависимой переменной
- •§ 8. Проверка общего качества уравнения регрессии. Коэффициент детерминации
- •Резюме
- •Вопросы для самопроверки
- •ГЛАВА 3. МНОЖЕСТВЕННАЯ ЛИНЕЙНАЯ РЕГРЕССИЯ
- •§ 1. Определение параметров уравнения регрессии
- •§ 2. Расчет коэффициентов множественной линейной регрессии
- •§ 3. Дисперсии и стандартные ошибки коэффициентов
- •§ 4. Проверка статистической значимости коэффициентов уравнения регрессии
- •§ 5. Интервальные оценки коэффициентов теоретического уравнения регрессии
- •§ 6. Проверка общего качества уравнения регрессии
- •§ 7. Проверка равенства двух коэффициентов детерминации
- •§ 8. Проверка гипотезы о совпадении уравнений регрессии для двух выборок
- •§ 10. Частные уравнения регрессии
- •Резюме
- •Вопросы для самопроверки
- •ГЛАВА 4. АВТОКОРРЕЛЯЦИЯ СЛУЧАЙНЫХ ВОЗМУЩЕНИЙ
- •§ 1. Суть и причины автокорреляции
- •§ 2. Последствия автокорреляции
- •§ 3. Обнаружение автокорреляции. Критерий Дарбина–Уотсона
- •§ 4. Методы устранения автокорреляции
- •Резюме
- •Вопросы для самопроверки
- •ГЛАВА 5. ГЕТЕРОСКЕДАСТИЧНОСТЬ СЛУЧАЙНЫХ ВОЗМУЩЕНИЙ
- •§ 1. Общие понятия
- •§ 2. Последствия гетероскедастичности
- •§ 3. Обнаружение гетероскедастичности
- •§ 4. Методы смягчения проблемы гетероскедастичности
- •Резюме
- •Вопросы для самопроверки
- •ГЛАВА 6. МУЛЬТИКОЛЛИНЕАРНОСТЬ
- •§ 1. Общие понятия и последствия мультиколлнеарности
- •§ 2. Определение мультиколлинеарности
- •§ 3. Методы устранения мультиколлинеарности
- •Резюме
- •Вопросы для самопроверки
- •ГЛАВА 7. ФИКТИВНЫЕ ПЕРЕМЕННЫЕ В РЕГРЕССИОННЫХ МОДЕЛЯХ
- •§ 1. Модель с одной фиктивной (бинарной) переменной
- •§ 3. Сравнение двух регрессий
- •Резюме
- •Вопросы для самопроверки
- •ГЛАВА 8. НЕЛИНЕЙНАЯ РЕГРЕССИЯ
- •§ 1. Общие понятия
- •§ 2. Степенные модели (логарифмические)
- •§ 3. Обратная модель (гиперболическая)
- •§ 4. Полиномиальная модель
- •§ 5. Показательная модель (лог-линейная)
- •§ 6. Выбор формы модели
- •Резюме
- •Вопросы для самопроверки
- •ГЛАВА 9. ВРЕМЕННЫЕ РЯДЫ
- •§ 1. Общие понятия
- •§ 2. Моделирование тренда временного ряда
- •§ 4. Стационарные ряды
- •§ 5. Процесс авторегрессии AR(p)
- •§ 6. Процессы скользящего среднего MA(q)
- •§ 7. Комбинированные процессы авторегрессии-скользящего среднего ARMA(p, q)
- •§ 8. Модели ARMA, учитывающие наличие сезонности
- •§ 9. Нестационарные временные ряды. Процессы авторегрессии и проинтегрированного скользящего среднего ARIMA(p, k, q)
- •§ 10. Регрессионные модели с распределенными лагами
- •§ 11. Полиномиально распределенные лаги Ш. Алмон
- •Резюме
- •Вопросы для самопроверки
- •ГЛАВА 10. СИСТЕМЫ ОДНОВРЕМЕННЫХ УРАВНЕНИЙ
- •§ 1. Общие понятия
- •§ 2. Идентификация структурной формы модели
- •§ 3. Косвенный метод наименьших квадратов
- •§ 4. Двухшаговый метод наименьших квадратов
- •§ 5. Трехшаговый метод наименьших квадратов
- •Резюме
- •Вопросы для самопроверки
- •ЗАКЛЮЧЕНИЕ
- •ЗАДАНИЯ ДЛЯ КОНТРОЛЯ
- •Тесты для самоконтроля
- •Ключи к тестам для самоконтроля
- •Контрольная работа
- •Вопросы к зачету (экзамену)
- •ГЛОССАРИЙ
- •СПИСОК ЛИТЕРАТУРЫ
Рассчитаем t-статистику и проверим значимость коэффициента корреляции:
t = |
|
|
r xy |
|
|
× n−2 = |
0,161 |
× 10−2 =0,461. |
|
|
|||||||
1−r2xy |
|
|||||||
|
1-0,1612 |
|
||||||
Критическое значение t-статистики |
при α=0,05 (n−2)= |
=10−2=8 равно 2,306, следовательно между рассмотренными величинами нет заметной линейной связи.
§ 4. Нормальное (гауссовское) распределение
Данное распределение занимает центральное место в теории и практике вероятностно-статистических исследований. Пусть значения исследуемой непрерывной случайной величины формируются под воздействием очень большого числа независимых случайных факторов, причем сила воздействия каждого отдельного фактора мала и не может превалировать среди остальных, а характер воздействия — аддитивный.
Функция плотности случайных величин подобного типа имеет вид:
|
|
1 |
|
|
(x−μ)2 |
|
1 |
|
(x−μ) |
2 |
|
|||
2 |
)= |
e |
− |
|
|
= |
|
|
|
|||||
2 σ |
2 |
|
||||||||||||
φ(x;μ,σ |
2πσ |
|
|
2πσ |
exp − |
2 |
σ |
2 |
|
, |
||||
|
|
|
|
|
|
|
|
|
|
|
где μ и σ2 — параметры закона, интерпретируемые как математи-
ческое ожидание (среднее значение) и дисперсия данной случайной величины.
Соответствующая функция распределения нормальной случайной величины имеет вид:
Φ(x;μ,σ2)= |
1 |
x |
(t−μ) |
2 |
|
∫e − |
2σ 2 |
dt. |
|||
2πσ |
|||||
|
|
−∞ |
|
|
Нормальный закон с функцией плотности
|
1 |
|
x |
2 |
|
1 |
|
x |
2 |
|
φ(x;0,1)= |
|
e− |
2 |
|
= |
|
exp − |
|
|
|
|
|
|
|
|||||||
|
2π |
|
|
|
|
2πσ |
|
2 |
|
|
|
|
|
|
|
|
|
|
28
( μ=0 и σ2 =1) называют стандартным. Во многих случайных ве-
личинах, изучаемых в экономике, технике, медицине, биологии и в других областях, естественно видеть суммарный аддитивный эффект большого числа независимых причин.
Нормальный закон — это один из многих типов распределения, имеющихся в природе, правда, с относительно большим удельным весом практического применения. Полнота теоретических исследований, относящихся к нормальному закону, а также сравнительно простые математические свойства делают его наиболее привлекательным и удобным в применении.
В случае отклонения исследуемых экспериментальных данных от нормального закона существует, по крайней мере, два пути его целесообразной эксплуатации: а) использовать его в качестве первого приближения; при этом нередко оказывается, что подобное допущение дает достаточно точные с точки зрения конкретных целей исследования результаты; б) подобрать такое преобразование исследуемой случайной величины, которое видоизменяет исходный «не нормальный» законраспределения, превращая его внормальный.
Удобным для статистических приложений является и свойство «самовоспроизводимости» нормального закона, заключающееся в том, что сумма любого числа нормально распределенных случайных величин тоже подчиняется нормальному закону распределения.
|
|
0,5 |
|
|
|
ф(x;0,1) |
0,4 |
|
|
|
|
|
|
|
|
|
0,3 |
|
|
|
|
0,2 |
|
|
|
|
0,1 |
|
|
|
|
0 |
|
|
-4 |
-2 |
0 |
2 |
4 |
|
|
x |
|
|
Рис. 1.1. График функции плотности стандартного нормального распределения
29
1,2
Ф(x;0,1)
1
0,8
0,6
0,4
0,2
0
-4 |
-3 |
-2 |
-1 |
0 |
1 |
2 |
3 |
4 |
x
Рис. 1.2. График функции стандартного нормального распределения
§5. χ2 (хи-квадрат)-распределение
Всвязи с гауссовской теорией ошибок астроном Ф. Хельмерт исследовал суммы квадратов нормально распределенных случайных
величин, придя таким образом к функции распределения F χ2(m)(x),
которую позднее К. Пирсон назвал функцией распределения «хиквадрат». Для отрицательных x функция F χ2(m)(x)=0 , а для неот-
рицательных x:
|
|
|
|
|
|
x |
|
|
t |
||
F χ2(m)(x)= |
|
|
1 m ∫t |
m |
− 1e |
− |
|||||
|
m |
2 |
2 |
dt, |
|||||||
2 |
|
|
|
|
|||||||
2 |
|
Γ |
2 |
|
0 |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
где m — число степеней свободы (целое положительное число), а
Γ(y)=∫∞ u y−1e−udu — значение гамма-функции Эйлера в точке y.
0
Соответствующая плотность вероятности задается функцией:
30
f |
|
|
|
1 |
|
|
|
m |
− 1 |
− |
x |
|
χ2(m)(x)= |
|
|
|
|
|
|
2 , x >0. |
|||||
|
|
|
|
|
x 2 |
e |
|
|||||
|
m |
m |
||||||||||
|
2 |
|
|
|
|
|
|
|
||||
|
2 Γ |
|
|
|
|
|
|
|
||||
|
|
|
|
|
2 |
|
|
|
|
|
|
|
При m≤2 |
функция плотности постоянно убывает (для x >0 ), |
|||||||||||
а при m>2 имеет единственный максимум в точке x =m−2 . |
||||||||||||
|
|
|
|
|
|
|
|
|
|
|
|
|
§ 6. Распределение Стьюдента (t-распределение)
Анализируя случайные отклонения выборочной средней x от истинного среднего значения исследуемой случайной величины ξ, английский статистик В. Госсет (писавший под псевдонимом «Стьюдент») получил следующий результат. Пусть ξ0, ξ1, ..., ξm —
независимые (0, σ2)-нормально распределенные случайные величины. Тогда плотность распределения случайной величины:
описывается функцией:
f t (x)=
t (m)= |
|
|
ξ0 |
|
|
|
1 |
|
m |
2 |
|
|
|
|
|
∑ |
ξi |
|
|
|
|
||
|
|
m i=1 |
|
m+1
1Γ 2 πm × m × 1+
Γ
2
m+1
x2 − 2 m
(−∞<x <+∞) .
Распределение получило название распределения Стьюдента с m степенями свободы (или t (m)-распределения). Функция плотно-
сти распределения Стьюдента не зависит от дисперсии σ2 случайных величин ξi , кроме того является унимодальной и симметричной относительно точки x =0 .
31