- •А.А. Халафян
- •Лекция 1. Теории вероятностей. История возникновения. Классическое определение вероятности
- •Классическое определение вероятности
- •Лекция 2. Теоремы сложения и умножения вероятностей. Статистическое, геометрическое определение вероятности
- •Статистическое определение вероятности
- •Геометрическое определение вероятности
- •Последовательность испытаний. Формула Бернулли
- •Лекция 3. Аксиоматическое построение теории вероятностей. Аксиоматика колмогорова
- •Лекция 4. Случайная величина. Функция распределения
- •Основные свойства функции распределения
- •X1 x2 … xn …, причём xn→-∞, n→∞.
- •Лекция 6. Интегральная теорема муавра–лапласа, теорема бернулли
- •Лекция 7. Непрерывные случайные величины
- •Свойства непрерывной случайной величины
- •Законы распределения непрерывных случайных величин Равномерное распределение
- •Экспоненциальное распределение
- •Нормальное распределение
- •Лекция 8. Понятие многомерной случайной величины
- •Аналогично закон распределения y имеет вид
- •Лекция 9. Функция распределения многомерной случайной величины
- •Плотность вероятностей двумерной случайной величины
- •Лекция 10. Свойства плотности вероятностей двумерной случайной величины
- •Лекция 11. Функции от случайных величин
- •Лекция 12. Теорема о плотности суммы двух случайных величин
- •Лекция 13. Распределения стьюдента, фишера .Числовые характеристики случайных величин
- •Числовые характеристики случайных величин
- •Свойства математического ожидания случайной величины
- •Лекция 14. Числовые характеристики случайных величин (продолжение)
- •Другие характеристики центра группирования случайной величины
- •Характеристики вариации случайной величины
- •Свойства дисперсии
- •Свойства среднеквадратического отклонения
- •Лекция 15. Вычисление дисперсии основных распределений
- •Лекция 16. Числовые характеристики меры связи случайных величин
- •Лекция 17. Предельные теоремы теории вероятностей. Неравенство чебышева. Закон больших чисел
- •Неравенство Чебышева
- •Закон больших чисел
- •Закон больших чисел для одинаково распределенных случайных величин
- •Закон больших чисел в форме Бернулли
- •Лекция 18. Центральная предельная теорема
- •Лекция 19. Математическая статистика. Предмет математической статистики. Вариационные ряды
- •Лекция 20. Средние величины. Показатели вариации
- •Свойства среднего арифметического
- •Показатели вариации (изменчивости) вариационного ряда
- •Свойства дисперсии
- •Статистическая выборка
- •Лекция 21. Оценка параметров генеральной совокупности
- •Лекция 22. Точечные и интервальные оценки параметров распределения Метод наибольшего правдоподобия
- •Метод моментов
- •Интервальная оценка
- •Лекция 23. Проверка статистических гипотез
- •Лекция 24. Проверка гипотезы о равенстве средних
- •Проверка гипотезы о равенстве дисперсий
- •Проверка гипотезы о законе распределения
- •Лекция 25. Элементы регрессионного и корреляционного анализов
- •Линеаризующие преобразования
- •Линейный множественный регрессионный анализ
- •Множественный корреляционный анализ
- •Библиографические ссылки
Лекция 16. Числовые характеристики меры связи случайных величин
Между случайными величинами может существовать функциональная взаимосвязь. Однако связь может быть и такого рода, что закон распределения одной случайной величины изменяется в зависимости от значений, принимаемых другой случайной величиной. Такую зависимость называют стохастической или вероятностной. Одной из характеристик стохастической взаимосвязи двух случайных величин является ковариация случайных величин.
Определение 1. Ковариацией случайных величин Хi и Хj называется число, равное математическому ожиданию произведения отклонений случайных величин Хi и Xj от своих математических ожиданий
. (1)
При вычислении используется формула
. (2)
Покажем справедливость этого утверждения:
ij=M((Xi – MXj) (Xj – MXj)) = M(Хi Хj – Xi MXj – MXj Xj + MXj MXj) =M(Хi Хj) – MXj MXj – MXj MXj + MXj MXj = M(Хi Хj) – MXj MXj.
Если Хi и Хj независимы, то ковариация равна нулю, так как М(Хi , Xj) = МХiМXj. Обратное утверждение неверно. Если ковариация не равна нулю, то случайные величины зависимы.
Рассмотрим некоторые свойства ковариации:
1) cov(X, Y) = cov(Y, X);
2) cov(X, X) = DX;
3) cov(X + c, Y + c) = cov(X, Y);
4) cov(Xc1 + Yc2, Z) = с1cov(X, Z) + с2cov(Y, Z), с1, c2 – const.
Пусть задан случайный вектор X = (X1, X2,…, Xn).
Определение 2. Ковариационной матрицей случайного вектора X = (X1, X2,…, Xn) назвается матрица , элементами которой являются ковариации :
(3)
Очевидно, что матрица симметричная, а диагональные элементы равны дисперсиям случайных величин Хi, ii = DXi, i = 1,2,…
Определение 3. Определитель ковариационной матрицы называется обобщенной дисперсией случайного вектора, который характеризует меру рассеивания случайного n-мерного вектора.
В теории вероятностей и её приложениях часто появляется необходимость перейти с помощью линейного преобразования к новым случайным величинам, X = (X1, X2, …, Xn)→ Y = (Y1, Y2, …,Ym), при этом .
Обозначим через С = {cij} матрицу коэффициентов линейного преобразования, через Х и Y – векторы столбцы , тогда линейное преобразование можно записать как Y = CX.
Теорема 1. Если для случайного вектора Х существует ковариационная матрица Σ, то при любых значениях элементов матрицы С существует ковариационная матрица Н для случайного вектора Y = CX, причём .
Доказательство. Пусть ; ;
Следствие 1.
. (4)
Доказательство. Пусть .
например, если n = 2, то
Следствие 2. Если в формуле из следствия 1 предположить, что , то
. (5)
Следствие 3. Если в формуле из следствия 1 предположить, что n = 1, то
.
Следствие 4. Если в формуле из следствия 2 предположить, что n = 2, то
(6)
Следствие 5. Если Хk независимы, то в матрице все недиагональные элементы равны нулю, а диагональные элементы равны дисперсиям соответствующих элементов Хк, поэтому, учитывая следствие 2, имеем
.
Пример 1. Вычислим ковариационную матрицу случайного вектора Z = (X,Y), дисперсии случайных величин U1 = X+Y, U2 = 2X–3Y и ковариационную матрицу Н вектора U = (U1, U2). Распределение случайного вектора Z задано в таблице.
-
J
1
2
3
4
pi
I
Yj
Xi
0
0,1
0,2
0,3
1
5
0,2
0,1
0,05
0,05
0,4
2
6
0
0,15
0,15
0,15
0,1
3
7
0
0
0,1
0,1
0,2
pj
0,2
0,25
0,3
0,25
МХ = 5·0,4+6·0,4+7·0,2 = 5,8; М Y = 0·0,2+0,1·0,25+0,2·0,3+0,3·0,25 = 0,16;
М(Х,Y)= 5·0·0,2+5·0,1·0,1+5·0,05·0,2+5·0,05·0,3+6·0·0+6·0,1·0,1+6·0,15·0,2+6·0,1·0,3+7·0·0+7·0·0,1+7·0,1·0,2+7·0,1·0,3 = 0,975.
Матрица имеет вид = , где 11 = cov(X,X), 12 = cov(X,Y), 21 = cov(Y,X), 22 = cov(Y,Y);
12 = 21 = M(XY)-MXMY = 0,975-5,8·0,16 = 0,047;
11 = cov(X,X) = DX=MX2 – (MX)2 = (52·0,4+62·0,4+72·0,2) – 5,82 = 0,56;
22 = cov(Y,Y) = DY = MY2 – (MY)2 = (0·0,2+0,12·0,25+0,22·0,3+0,32·0,25) – 0,162 = 0,0114.
Следовательно, = .
Найдем DU1 = D(X + Y)= 0,56 + 0,047 + 0,047 + 0,0114 = 0,6654;
DU2 = D(2X – 3Y) = c111c1 + c112c2 + c221c1+ c222c2 = 2·2·0,56 – 2·3·0,047 – 3·2·0,047 + 3·3·0,0114 = 1,778.
Ковариационную матрицу вектора U = (U1, U2) можно определить по формуле
, где С = , тогда Н = .
Из свойств ковариации следует, что значение ковариации линейно зависит от масштаба измерения случайных величин. Если изменить масштаб, то изменится и значение ковариации, например, если от случайной величины Х2 перейти к новой случайной величине Y2 = с2 Х2, то cov(X1, Y2) = c2cov(X1,X2). Это свойство ковариации ограничивает возможности его применения. Для получения характеристики взаимосвязи случайных величин, которая бы не зависела от преобразования случайных величин вида Y = аX + в, перейдем к рассмотрению нормированных случайных величин.
Пусть Х1, Х2 – случайные величины. Тогда им соответствуют нормированные величины: , .
Найдем ковариацию Y1,Y2
– коэффициент корреляции случайных величин.
Определение 4. Коэффициентом корреляции случайных величин Х1, Х2 называется число х1, х2 равное ковариации нормированных случайных величин Х1, Х2, т.е.
х1, х2 = .
Для независимых случайных величин х1,х2 = 0, так как cov(X1,X2) = 0. Обратное утверждение не верно (оно справедливо только для нормально распределенных случайных величин), но если х1,х2 0, то случайные величины Х1, Х2 – зависимы.
Определение 5. Случайные величины называются некоррелированными, если х1, х2 = 0.
При изменении масштаба случайной величины значение корреляции не изменяется.
Рассмотрим пример, который показывает, что из равенства нулю коэффициента корреляции не следует независимость случайных величин.
Пусть , тогда
.
Теорема 2. Абсолютное значение коэффициента корреляции меньше либо равно 1: .
Доказательство. Пусть заданы случайные величины Х1, Х2. Рассмотрим нормированные случайные величины , . Тогда в соответствии с формулой (6)
следовательно, .
Теорема 3. , тогда и только тогда, когда X1, X2 связаны линейной зависимостью, т.е. Х2 = Х1 + , причем если > 0, то ; если < 0, то
Доказательство.
Пусть . Покажем, что Х1 и Х2 линейно зависимы.
, т.е.
Покажем, что с = 0.
, т.е. ,
следовательно . Запишем последнее равенство в виде
,
выразим из него Х2:
,
обозначив множитель при первом слагаемом , а два других через , получим, что
Х2 = Х1 + .
Аналогичный результат можно получить в предположении, что
II. Пусть Х2 = Х1 + , покажем, что .
, , следовательно