- •Раздел III. Теория вероятностей и математическая статискика Лекция 17. Основные понятия теории вероятностей
- •17.1. Введение. Предмет теории вероятностей
- •17.2. Краткий исторический очерк
- •17.3. Случайное событие. Его частота
- •17. 4. Классическое определение вероятности. Непосредственный подсчет вероятностей.
- •Лекция 18. Алгебра событий. Основные теоремы теории вероятностей
- •18.1. Алгебра событий
- •18.2. Теорема сложения вероятностей
- •18.3. Полная группа событий. Противоположные события
- •18.4. Теорема умножения вероятностей Независимые и зависимые события.
- •18.5. Теорема умножения вероятностей независимых событий
- •18.6. Условная вероятность
- •18.7. Теорема умножения вероятностей зависимых событий
- •Лекция 19. Основные теоремы теории вероятностей (продолжение)
- •19.1. Теорема сложения вероятностей совместных событий
- •19. 2. Формула полной вероятности
- •19.3. Формулы Бейеса (формулы переоценки вероятностей гипотез)
- •19. 4. Повторение испытаний. Формула Бернулли
- •Лекция 20. Случайные величины и их законы распределения
- •20.1. Дискретные и непрерывные случайные величины
- •Понятие закона распределения вероятностей дискретной случайной величины
- •20. 3. Биноминальное распределение
- •20. 4. Распределение Пуассона
- •20. 5. Простейший пуассоновский поток событий
- •21.2. Математическое ожидание и его основные свойства
- •21.3. Дисперсия дискретной случайной величины
- •21.4. Среднее квадратическое отклонение
- •21.5. Свойства дисперсии
- •21. 6. Понятие о моментах распределения
- •21.7. Определение интегральной функции распределения
- •21.8. Свойство интегральной функции
- •21.9. График интегральной функции
- •22.2. Вероятность попадания непрерывной случайной
- •22.3. Нахождение интегральной функции распределения по известной дифференциальной
- •22.4. Свойства дифференциальной функции. Ее вероятностный смысл
- •22.5. Математическое ожидание. Дисперсия. Среднее квадратическое отклонение
- •22.6. Начальные и центральные моменты
- •22.7. Коэффициент асимметрии
- •22.8. Эксцесс
- •22.9. Мода. Медиана
- •Лекция 23. Законы распределения непрерывной случайной величины
- •Закон равномерного распределения или закон равномерной плотности
- •23.2. Нормальное распределение
- •23.3. Вероятность попадания случайной величины, подчиненной нормальному закону, на интервал [
- •23.4. Правило трех сигм
- •Лекция 24. Система случайных величин
- •24.1. Понятие о системе случайных величин
- •24.2. Закон распределения вероятностей дискретной двумерной случайной величины
- •24.3. Интегральная и дифференциальная функция распределения двумерной случайной величины и их свойства
- •24.4. Условные законы распределения составляющих системы дискретных случайных величин
- •24.5. Числовые характеристики системы двух случайных величин
- •24.6. Коррелированность и зависимость случайных величин
- •Лекция 25. Предельные теоремы
- •25.1. Закон больших чисел
- •25.2. Теорема Чебышева
- •25.3. Теорема Бернулли
- •25.4. Центральная предельная теорема
21.4. Среднее квадратическое отклонение
Для оценки рассеяния случайной величины часто используются не дисперсия, имеющая размерность квадрата случайной величины, а среднее квадратическое отклонение, имеющее размерность случайной величины.
Средним квадратическим отклонением случайной величины Х называют квадратный корень из дисперсии:
(Х)= .
Пример. * (второе продолжение).
(Х)= = =0,51
Следовательно, для 100 стрелков следует произвести запас патронов в среднем 124 51.
21.5. Свойства дисперсии
Свойство 1. Дисперсия постоянной величины С равна нулю: Д (С)=0.
Свойство 2. Постоянный множитель можно выносить за знак дисперсии, возведя его в квадрат: Д (СХ) =С2 Д (Х).
Свойство 3. Дисперсия суммы двух независимых случайных величин равна сумме дисперсий этих величин: Д (Х+Y)=Д (Х)+Д (Y).
Следствие 1. Дисперсия суммы нескольких взаимно независимых величин равна сумме дисперсий этих величин: Д (Х+Y+Z)=Д (Х)+Д (Y)+Д (Z).
Следствие 2. Дисперсия суммы постоянной величины и случайной равна дисперсии случайной величины: Д (С+Х)=Д (Х).
Свойство 4. Дисперсия разности двух случайных величин равна сумме дисперсий этих величин: Д (Х-Y)=Д (Х)+Д (Y).
21. 6. Понятие о моментах распределения
Для описания основных свойств распределения вероятностей используют понятие моментов: начальных и центральных.
Определение. Начальным моментом порядка k случайной величины Х называют математическое ожидание величины k=M (Xk).
В частности, 1=M (X), т.е. первый начальный момент случайной величины Х есть ее математическое ожидание. 2=M (X2).
Пользуясь этими моментами, можно записать, что
Д (Х)=М (Х2)–[М (Х)]2=2– (21.4)
Кроме моментов случайных величин Х, целесообразно рассматривать моменты отклонения Х–М (Х).
Определение. Центральным моментом порядка k случайной величины Х называют математическое ожидание величины [Х–М (Х)]2.
k=M [X–M (X)]k.
В частности, 1=M [X–M (X)]=0 (21.5)
2=M [X–M (X)]2=Д (Х) (21.6)
Легко выводятся соотношения, связывающие начальные и центральные моменты.
Например, сравнивая (21.4) и (21.6), получим, что 2=2 -
3 [X–M (X)]3=M [X3–3X2 M (X)+3X [M (X)]2–[M (X)]3
Т.к. M [X–M (X)]=М (Х)=const и М [M (X)]3=[M (X)]3=const,
М (Х3)=3; М (Х2)=2, то
3=3–32 M (X)+3 M (X) [M (X)]2–[M (X)]3=3–321+3 - = 3–3 12+2 .
Итак, 3=3–3 12+2 . (21.8)
Аналогично можно получить формулу:
4=4–431+62 - 3 (21.9)
Моменты более высоких порядков применяются редко.
Замечание. Моменты, рассмотренные здесь, называют теоретическими. Они таким же образом вводятся и для непрерывных величин.
В отличие от теоретических моментов, моменты, которые вычисляются по заданным наблюдений (экспериментов), называют эмпирическими. О них речь пойдет позже.
21.7. Определение интегральной функции распределения
Вспомним, что дискретная случайная величина задается рядом распределения, т.е. перечнем ее возможных значений и их вероятности. Такой способ задания не является общим, он не применим, например, для непрерывных случайных величин.
Действительно, если Х–непрерывная случайная величина, то ее возможные значения занимают целый промежуток [a; b]. Перечень ее возможных знаний составить нельзя, их бесчисленное количество (так называемое "несчетное множество"). Кроме того, как мы увидим в дальнейшем, каждое отдельное значение непрерывной случайной величины не обладает никакой отличной от нуля вероятностью. Этот пример указывает на целесообразность дать общий способ задания любых типов случайных величин.
Для количественной характеристики распределения вероятностей удобно воспользоваться не вероятностью события Х=х (как это делалось при составлении ряда распределения дискретной случайной величины), а вероятностью события Х<х, где х - некоторая текущая переменная. Вероятность этого события, очевидно, есть некоторая функция от х. Ее обозначают F(х) и называют интегральной функцией распределения (или просто функцией распределения).
Определение. Интегральной функцией распределения называют Функцию F(х), определяющую для каждого значения х вероятность того, что случайная величина Х примет значение, меньше х, т.е. F(х)=Р (Х<х).
Геометрически это неравенство можно истолковать так: F(х) есть вероятность того, что случайная величина примет значение, которое изображается на числовой оси точкой, лежащей левее точки х.