- •Теория вероятностей
- •Содержание
- •Раздел 6. Законы распределения функций случайных аргументов. 90
- •1. Теоретическая часть. Введение
- •Раздел 1. Понятие события и его вероятности.
- •1.1. Предмет теории вероятности.
- •1.2. Алгебра событий. Пространство элементарных событий.
- •1.3. Классическое определение вероятности.
- •1.4. Геометрические вероятности.
- •1.5. Частота и вероятность.
- •1.6. Аксиоматическое построение теории вероятностей.
- •1.7. Условная вероятность и простейшие основные формулы.
- •1.8. Формула полной вероятности.
- •1.9 Формула Бейеса.
- •Раздел 2. Последовательные независимые испытания
- •2.1. Независимые испытания. Формулы Бернулли.
- •2.2. Обобщенная теорема о повторении опытов.
- •Раздел 3. Понятие случайной величины. Функция распределения и ее основные свойства.
- •3.1. Понятие случайной величины и функции распределения.
- •3.2. Свойства функции распределения.
- •3.3. Дискретные и непрерывные случайные величины.
- •3.4. Числовые характеристики случайных величин.
- •Раздел 4. Примеры распределений случайных величин.
- •4.1. Биномиальное распределение.
- •4.2. Теорема Пуассона
- •4.3. Закон Пуассона.
- •4.4. Равномерное распределение.
- •4.5. Показательное распределение.
- •4.6.Нормальный закон распределения.
- •Раздел 5. Системы случайных величин (случайные векторы).
- •5.1. Понятие о системе случайных величин.
- •5.2. Функция распределения системы двух случайных величин.
- •5.3. Плотность распределения системы двух случайных величин.
- •5.4. Законы распределения отдельных компонент, входящих в систему. Условные законы распределения.
- •5.5. Зависимые и независимые случайные величины.
- •5.6. Числовые характеристики системы двух случайных величин.
- •5.7. Система произвольного числа случайных величин (случайные вектора).
- •5.8. Числовые характеристики системы нескольких случайных величин.
- •Раздел 6. Законы распределения функций случайных аргументов.
- •6.1. Закон распределения функции одного случайного аргумента.
- •6.2. Закон распределения функции двух случайных величин.
- •6.3. Закон распределения суммы двух случайных величин. Композиция законов распределения.
- •6.4. Распределение произведения.
- •6.5. Распределение квадрата случайной величины.
- •6.6. Распределение частного.
- •6.7. Числовые характеристики функций случайных величин.
- •Раздел 7. Теоремы о числовых характеристиках.
- •7.1. Основные теоремы о математическом ожидании.
- •7.2. Теоремы о дисперсии случайной величины.
- •7.3. Теорема о линейной зависимости случайных величин.
- •Раздел 8. Характеристические функции.
- •8.1. Определение и простейшие свойства характеристических функций.
- •8.2. Предельные теоремы для характеристических функций.
- •Раздел 9. Предельные теоремы для случайных величин.
- •9.1. Сходимость последовательностей случайных величин.
- •9.2. Закон больших чисел.
- •9.3. Следствия закона больших чисел.
- •Раздел 10. Предельные теоремы теории вероятностей.
- •10.1. Центральная предельная теорема.
- •10.2. Теорема Ляпунова.
- •10.3. Теорема Лапласа.
- •2. Практические занятия, тесты, самостоятельная работа. Занятие 1. Непосредственный подсчет вероятности с использованием классического определения вероятности.
- •1.1. Краткая теоретическая часть.
- •1.2. Тест.
- •1.3. Решение типовых задач.
- •1.4. Задачи для самостоятельной работы.
- •Занятие 2. Геометрическое определение вероятности.
- •2.1. Краткая теоретическая часть.
- •2.2. Тест
- •2.3. Решение типовых задач
- •2.4. Задачи для самостоятельной работы
- •Занятие 3. Условная вероятность. Теорема умножения вероятностей.
- •3.1. Краткая теоретическая часть
- •3.2. Тест
- •3.3. Решение типовых задач
- •3.4. Задачи для самостоятельной работы
- •Занятие 4. Теорема сложения вероятностей.
- •4.1. Краткая теоретическая часть
- •4.2. Тест
- •4.3. Решение типовых задач
- •4.4. Задачи для самостоятельной работы
- •Занятие 5. Формула полной вероятности.
- •5.1. Краткая теоретическая часть
- •5.2. Тест.
- •5.3. Решение типовых задач
- •5.4. Задачи для самостоятельной работы
- •Занятие 6. Формула Бейеса.
- •6.1. Краткая теоретическая часть
- •6.2.Тест
- •6.3. Решение типовых задач
- •6.4. Задачи для самостоятельной работы
- •Занятие 7. Последовательные независимые испытания.
- •7.1. Краткая теоретическая часть
- •7.2. Тест
- •7.3. Решение типовых задач
- •7.4. Задачи для самостоятельной работы
- •Занятие 8. Дискретные и непрерывные случайные величины.
- •8.1. Краткая теоретическая часть а) Ряд, многоугольник и функция распределения случайной дискретной величины
- •8.2. Тест
- •А) только к дискретным случайным величинам
- •8.3. Решение типовых задач а) Ряд, многоугольник и функция распределения случайной дискретной величины
- •Б) Функция распределения и плотность вероятности непрерывной случайной величины
- •8.4. Задачи для самостоятельной работы а) Ряд, многоугольник и функция распределения случайной дискретной величины
- •Занятие 9. Числовые характеристики дискретных случайных величин.
- •9.1. Краткая теоретическая часть
- •9.2. Тест
- •9.3. Решение типовых задач
- •9.4. Задачи для самостоятельной работы
- •Занятие 10. Дискретные и непрерывные случайные величины.
- •10.1. Краткая теоретическая часть
- •10.2. Тест
- •10.3. Решение типовых задач
- •10.4. Задачи для самостоятельной работы
- •Занятие 11. Закон Пуассона.
- •11.1. Краткая теоретическая часть
- •11.2. Тест
- •11.3. Решение типовых задач
- •11.4. Задачи для самостоятельной работы
- •Занятие 12. Закон нормального распределения.
- •12.1. Краткая теоретическая часть
- •12.2. Тест
- •12.3. Решение типовых задач
- •12.4. Задачи для самостоятельной работы
- •Литература
5.6. Числовые характеристики системы двух случайных величин.
Ранее в разделе 3.4. были введены числовые характеристики случайной величины важнейшими из которых являются моменты. Аналогичные числовые характеристики можно ввести и для системы двух случайных величин.
Начальным моментом порядка k,s системы (X,Y) называется
математическое ожидание произведения Xk на Ys:
|
|
Центральным моментом порядка k, s системы (X,Y) называется математическое ожидание произведения k-й и s-й степени соответствующих центрированных величин:
|
|
где
Запишем формулы для непосредственного подсчета моментов. Для дискретных случайных величин
|
|
где — вероятность того, что система(X,Y) примет значения , а суммирование распространяется по всем возможным значениям случайных величинX,Y.
Для непрерывных случайных величин:
|
|
где f(x, у) — плотность распределения системы.
Помимо чисел k и s, характеризующих порядок момента по отношению к отдельным величинам, рассматривается еще суммарный порядок момента k+s, равный сумме показателей степеней при X и Y. Соответственно суммарному порядку моменты классифицируются на первые, вторые и т. д. На практике обычно применяются только первые и вторые моменты.
Первые начальные моменты представляют собой уже известные нам математические ожидания величин X и Y, входящих в систему:
|
|
Совокупность математических ожиданий тх, ту представляет собой характеристику положения системы. Геометрически это координаты точки на плоскости, вокруг которой происходит рассеивание случайных точек (X,Y) будем называть вектором математических ожиданий.
Кроме первых начальных моментов, на практике широко применяются еще вторые центральные моменты системы. Два из них представляют собой уже известные нам дисперсии, величин X и Y.
|
|
характеризующие рассеивание случайной точки в направлении осей Ох и Оу, относительно вектора математических ожиданий.
Особую роль как характеристика системы играет второй смешанный центральный момент:
|
|
т.е. математическое ожидание произведения центрированных случайных величин. Ввиду того, что этот момент играет важную роль в теории систем случайных величин, введем для него особое обозначение:
|
|
Характеристика Кху называется корреляционным моментом (иначе — «моментом связи») случайных величин X, Y.
Для дискретных случайных величин корреляционный момент выражается формулой
|
|
а для непрерывных — формулой
|
|
Выясним смысл и назначение этой характеристики.
Корреляционный момент есть характеристика системы случайных величин, описывающая рассеивание случайных величин X и Y, а так же вероятностную связь между ними. Для того чтобы убедиться в этом, докажем, что для независимых случайных величин корреляционный момент равен нулю.
Доказательство проведем для непрерывных случайных величин. Пусть X, Y — независимые непрерывные случайные величины с плотностью распределения f(x,у). Для независимых случайных величин
|
|
где — плотности распределения соответственно величинX и Y.
|
|
Интеграл
|
|
представляет собой не что иное, как первый центральный момент величины X, и, следовательно, равен нулю; по той же причине равен нулю и второй сомножитель; следовательно, для независимых случайных величин .
Таким образом, из независимости случайных величин X и Y следует их некоррелированность, если корреляционный момент двух случайных величин отличен от нуля, это есть признак наличия зависимости между ними.
Корреляционный момент характеризует не только зависимость величин, но и их рассеивание. Действительно, если, например, одна из величин (X,Y) весьма мало отклоняется от своего математического ожидания (почти не случайна), то корреляционный момент будет мал, какой бы тесной зависимостью ни были связаны величины (X,Y). Поэтому для характеристики связи между величинами (X,Y) в чистом виде переходят от момента Кху к безразмерной характеристике
|
|
где — среднеквадратические отклонения величинX,Y. Эта характеристика называется коэффициентом корреляции величин X и Y. Очевидно, коэффициент корреляции обращается в нуль одновременно с корреляционным моментом; следовательно, для независимых случайных величин, коэффициент корреляции равен нулю.
Случайные величины, для которых корреляционный момент (а значит, и коэффициент корреляции) равен нулю, называются некоррелированными (иногда — «несвязанными»).
Выясним, эквивалентно ли понятие некоррелированности случайных величин понятию независимости. Выше мы доказали, что две независимые случайные величины всегда являются некоррелированными. Остается выяснить: справедливо ли обратное положение, вытекает ли из некоррелированности величин их независимость? Оказывается — нет. Можно построить примеры таких случайных величин, которые являются некоррелированными, но зависимыми. Равенство нулю коэффициента корреляции — необходимое, но не достаточное условие независимости случайных величин.
Из некоррелированности величин еще не следует их независимость. Условие независимости случайных величин — более жесткое, чем условие некоррелированности.
Убедимся в этом на примере. Рассмотрим систему случайных величин (X,Y), распределенную с равномерной плотностью внутри круга С радиуса r с центром в начале координат (рис. 5.6.1).
Плотность распределения величин (X, Y) выражается формулой
|
|
тогда
|
(5.6.12) |
Нетрудно убедиться, что в данном примере величины являются зависимыми. Действительно, если величина X приняла, например, значение 0, то величина Y может с равной вероятностью принимать все значения от -r до +r, если же величина X приняла значение r, то величина Y может принять только одно единственное значение, в точности равное нулю; вообще, диапазон возможных значений Y зависит от того, какое значение приняла X.
Таким образом, мы видим, что из некоррелированности случайных величин не всегда следует их независимость.
Коэффициент корреляции характеризует не всякую зависимость, а только так называемую линейную зависимость. Линейная вероятностная зависимость случайных величин заключается в том, что при возрастании одной случайной величины другая имеет тенденцию возрастать (или же убывать) по линейному закону. Коэффициент корреляции характеризует степень тесноты линейной зависимости между случайными величинами. Если случайные величины X и Y связаны линейной функциональной зависимостью: , то , причем знак «плюс» или «минус» берется в зависимости от того, положителен или отрицателен коэффициент а. В общем случае, когда величины X и Y связаны произвольной вероятностной зависимостью, коэффициент корреляции может иметь значение в пределах: .
В случае говорят о положительной корреляции величин X и Y, в случае — об отрицательной корреляции. Положительная корреляция между случайными величинами означает, что при возрастании одной из них другая имеет тенденцию в среднем возрастать; отрицательная корреляция означает, что при возрастании одной из случайных величин другая имеет тенденцию в среднем убывать.