- •А.А. Халафян
- •Лекция 1. Теории вероятностей. История возникновения. Классическое определение вероятности
- •Классическое определение вероятности
- •Лекция 2. Теоремы сложения и умножения вероятностей. Статистическое, геометрическое определение вероятности
- •Статистическое определение вероятности
- •Геометрическое определение вероятности
- •Последовательность испытаний. Формула Бернулли
- •Лекция 3. Аксиоматическое построение теории вероятностей. Аксиоматика колмогорова
- •Лекция 4. Случайная величина. Функция распределения
- •Основные свойства функции распределения
- •X1 x2 … xn …, причём xn→-∞, n→∞.
- •Лекция 6. Интегральная теорема муавра–лапласа, теорема бернулли
- •Лекция 7. Непрерывные случайные величины
- •Свойства непрерывной случайной величины
- •Законы распределения непрерывных случайных величин Равномерное распределение
- •Экспоненциальное распределение
- •Нормальное распределение
- •Лекция 8. Понятие многомерной случайной величины
- •Аналогично закон распределения y имеет вид
- •Лекция 9. Функция распределения многомерной случайной величины
- •Плотность вероятностей двумерной случайной величины
- •Лекция 10. Свойства плотности вероятностей двумерной случайной величины
- •Лекция 11. Функции от случайных величин
- •Лекция 12. Теорема о плотности суммы двух случайных величин
- •Лекция 13. Распределения стьюдента, фишера .Числовые характеристики случайных величин
- •Числовые характеристики случайных величин
- •Свойства математического ожидания случайной величины
- •Лекция 14. Числовые характеристики случайных величин (продолжение)
- •Другие характеристики центра группирования случайной величины
- •Характеристики вариации случайной величины
- •Свойства дисперсии
- •Свойства среднеквадратического отклонения
- •Лекция 15. Вычисление дисперсии основных распределений
- •Лекция 16. Числовые характеристики меры связи случайных величин
- •Лекция 17. Предельные теоремы теории вероятностей. Неравенство чебышева. Закон больших чисел
- •Неравенство Чебышева
- •Закон больших чисел
- •Закон больших чисел для одинаково распределенных случайных величин
- •Закон больших чисел в форме Бернулли
- •Лекция 18. Центральная предельная теорема
- •Лекция 19. Математическая статистика. Предмет математической статистики. Вариационные ряды
- •Лекция 20. Средние величины. Показатели вариации
- •Свойства среднего арифметического
- •Показатели вариации (изменчивости) вариационного ряда
- •Свойства дисперсии
- •Статистическая выборка
- •Лекция 21. Оценка параметров генеральной совокупности
- •Лекция 22. Точечные и интервальные оценки параметров распределения Метод наибольшего правдоподобия
- •Метод моментов
- •Интервальная оценка
- •Лекция 23. Проверка статистических гипотез
- •Лекция 24. Проверка гипотезы о равенстве средних
- •Проверка гипотезы о равенстве дисперсий
- •Проверка гипотезы о законе распределения
- •Лекция 25. Элементы регрессионного и корреляционного анализов
- •Линеаризующие преобразования
- •Линейный множественный регрессионный анализ
- •Множественный корреляционный анализ
- •Библиографические ссылки
Линеаризующие преобразования
В случае неадекватности линейного уравнения регрессии можно построить уравнение нелинейной регрессии, например, полиномиальной регрессии второй или третьей степени. При этом аналогично изложенному ранее, методом наименьших квадратов можно найти коэффициенты для квадратичной и кубической регрессий –
; . (9)
В некоторых случаях можно значительно упростить процедуру построения нелинейной модели, применив линеаризацию по параметрам или по переменным модели.
Например, установлено, что в задаче слежения за целями уровень возбуждения объектов и их производительность связаны следующей квадратичной зависимостью:
.
Эта модель не линейна по переменным, но линейна по параметрам. Если сделать замену
х1 = возбуждение; х2 = возбуждение2,
то получим линейное уравнение – y = b0 + b1x1 + b2x2.
Известно, что скорость роста человека с увеличением возраста изменяется по следующему экспоненциальному закону:
скорость роста = exp(-b1*возраст). (10)
Эта модель не линейна и по переменным и по параметрам, но допускает линеаризацию. Прологарифмируем это уравнение и сделаем замену ln(cкорость роста) = y, возраст = х, получим линейное уравнение у = -b1х.
В таблице приведены примеры нелинейных зависимостей и соответствующие им линеаризующие преобразования [6].
Функция |
Линеаризующие преобразования |
|||
y’ |
x’ |
b’0 |
b’1 |
|
|
y |
1/x |
b0 |
b1 |
|
1/y |
х |
b0 |
b1 |
|
x/y |
х |
b0 |
b1 |
|
lny |
x |
lnb0 |
lnb1 |
|
1/у |
ехр(-х) |
b0 |
b1 |
|
lny |
lnх |
lnb0 |
b1 |
|
у |
ln(х+1) |
b0 |
b1 |
|
1/у |
1/x |
b1/ b0 |
1/ b0 |
Линейный множественный регрессионный анализ
Парный регрессионный анализ рассматривали при помощи графической иллюстрации. При изучении множественного регрессионного анализа такой возможности нет, так как нет графической интерпретации многомерного пространства. Ясно, что р-мерное пространство – это только математическая модель, экстраполяция свойств двумерного пространства на р-мерное. Если при этом не стараться наглядно представить себе р-мерное пространство, то никаких затруднений для понимания множественного регрессионного анализа не возникает. При проведении экспериментов в такой множественной ситуации исследователь фиксирует значения функции отклика (у) и всех факторов, от которых она зависит (хj). Результатами исследования являются уже не два вектор-столбца как при парном регрессионном анализе, а матрица результатов наблюдений:
где хij – значение j-го фактора в i-м исследовании; уi – значение функции отклика в i-м исследовании; n – число исследований; ; р – число факторов.
Задача линейного множественного регрессионного анализа состоит в построении такого уравнения плоскости в (р + 1)-мерном пространстве, отклонение результатов наблюдений уi от которой были бы минимальными. Другими словами, следует вычислить значения коэффициентов b0, b1, …, bp в линейном полиноме
, (11)
Таким образом, чтобы минимизировать выражение
, (12)
где – предсказанные значения функции отклика по модели (11).
Для отыскания минимума указанного выражения необходимо найти частные производные по всем неизвестным коэффициентам b0, b1,…, bp и приравнять их к нулю. Полученные уравнения образуют систему нормальных уравнений
(13)
Введем обозначение
, и ,
тогда систему (13) можно записать в матричной форме
, (14)
где XT – матрица, транспонированная к матрице Х. Для решения системы нормальных уравнений в матричной форме следует умножить ее слева на матрицу, обратную матрице системы нормальных уравнений, если она существует т.е.
,
но , следовательно, столбец коэффициентов можно найти по выражению
(15)
После определения коэффициентов b0, b1, …, bp и построения уравнения регрессии необходимо проверить его статистическую значимость при помощи критерия Фишера и статистическую значимость каждого bi ( ) при помощи критерия Стьюдента. При необходимости можно построить доверительные интервалы истинных значений коэффициентов регрессии.
Адекватность регрессионной модели можно повысить, увеличивая степень полинома. Однако для полиномов высоких степеней при проведении матричных операций на вычислительной машине накапливаются столь значительные вычислительные погрешности округления, что решение становится практически невозможным. Поэтому обычно ограничиваются построением полинома второго порядка и проведением пошагового регрессионного анализа с включением или исключением переменных.