- •Раздел III. Теория вероятностей и математическая статискика Лекция 17. Основные понятия теории вероятностей
- •17.1. Введение. Предмет теории вероятностей
- •17.2. Краткий исторический очерк
- •17.3. Случайное событие. Его частота
- •17. 4. Классическое определение вероятности. Непосредственный подсчет вероятностей.
- •Лекция 18. Алгебра событий. Основные теоремы теории вероятностей
- •18.1. Алгебра событий
- •18.2. Теорема сложения вероятностей
- •18.3. Полная группа событий. Противоположные события
- •18.4. Теорема умножения вероятностей Независимые и зависимые события.
- •18.5. Теорема умножения вероятностей независимых событий
- •18.6. Условная вероятность
- •18.7. Теорема умножения вероятностей зависимых событий
- •Лекция 19. Основные теоремы теории вероятностей (продолжение)
- •19.1. Теорема сложения вероятностей совместных событий
- •19. 2. Формула полной вероятности
- •19.3. Формулы Бейеса (формулы переоценки вероятностей гипотез)
- •19. 4. Повторение испытаний. Формула Бернулли
- •Лекция 20. Случайные величины и их законы распределения
- •20.1. Дискретные и непрерывные случайные величины
- •Понятие закона распределения вероятностей дискретной случайной величины
- •20. 3. Биноминальное распределение
- •20. 4. Распределение Пуассона
- •20. 5. Простейший пуассоновский поток событий
- •21.2. Математическое ожидание и его основные свойства
- •21.3. Дисперсия дискретной случайной величины
- •21.4. Среднее квадратическое отклонение
- •21.5. Свойства дисперсии
- •21. 6. Понятие о моментах распределения
- •21.7. Определение интегральной функции распределения
- •21.8. Свойство интегральной функции
- •21.9. График интегральной функции
- •22.2. Вероятность попадания непрерывной случайной
- •22.3. Нахождение интегральной функции распределения по известной дифференциальной
- •22.4. Свойства дифференциальной функции. Ее вероятностный смысл
- •22.5. Математическое ожидание. Дисперсия. Среднее квадратическое отклонение
- •22.6. Начальные и центральные моменты
- •22.7. Коэффициент асимметрии
- •22.8. Эксцесс
- •22.9. Мода. Медиана
- •Лекция 23. Законы распределения непрерывной случайной величины
- •Закон равномерного распределения или закон равномерной плотности
- •23.2. Нормальное распределение
- •23.3. Вероятность попадания случайной величины, подчиненной нормальному закону, на интервал [
- •23.4. Правило трех сигм
- •Лекция 24. Система случайных величин
- •24.1. Понятие о системе случайных величин
- •24.2. Закон распределения вероятностей дискретной двумерной случайной величины
- •24.3. Интегральная и дифференциальная функция распределения двумерной случайной величины и их свойства
- •24.4. Условные законы распределения составляющих системы дискретных случайных величин
- •24.5. Числовые характеристики системы двух случайных величин
- •24.6. Коррелированность и зависимость случайных величин
- •Лекция 25. Предельные теоремы
- •25.1. Закон больших чисел
- •25.2. Теорема Чебышева
- •25.3. Теорема Бернулли
- •25.4. Центральная предельная теорема
20. 3. Биноминальное распределение
Пусть производится n независимых испытаний, в каждом из которых событие А может появится, либо не появится. Вероятность наступления события А во всех испытаниях одинакова и равна р (следовательно, вероятность не наступления ). Рассмотрим дискретную величину Х - число появлений события А и n испытаниях.
Поставим задачу: найти закон распределения величины Х, т.е. нужно найти все возможные значения хi случайной величины и вероятности pi появления этих значений.
Очевидно, событие А в n испытаниях может не появиться (х1= 0), либо появиться один раз (х2 =1), либо два раза (х3 =2), ..., либо n раз (хn+1=n).
По формуле Бернулли
Рn (k)=C , (4.1.)
где k=0, 1, 2, ..., n. Формула (4.1.) является аналитическим выражением искомого закона распределения. Она справедлива при k=0 и k=n т.к.
0!=1,
Определение. Биноминальным называют распределение вероятностей, определяемое формулой Бернулли.
Напишем биноминальный закон распределения вероятностей в виде таблицы:
-
Х
0
1
...
k
...
n–1
n
Р
qn
npgn-1
...
C
...
npn-1q
pn
Пример. Вероятность брака в данной партии деталей p=0,1. Какова вероятность того, что в партии из 3-х деталей будет k=0, 1, 2, 3 бракованных деталей:
Решение. Р (х=0)= = 0,729, т.к. q3=(1–p)3=(1–0,1)3=0,9
Р (х=1)=
Р (х=2)=
Р (х=3)=
-
Х
0
1
2
3
Р
0,729
0,243
0,027
0,001
20. 4. Распределение Пуассона
Пусть производится n независимых испытаний, в каждом из которых вероятность появления события А равна р. Применима формула Бернулли. Но если n - велико, то ей пользоваться неудобно. В случаях, когда n -велико, р - мало прибегают к асимптотической формуле Пуассона. Итак, поставим своей задачей найти вероятность того, что при очень большом числе испытаний, в каждом из которых вероятность наступления события очень мала, событие наступит ровно k раз, т.е. найдем Рn (k).
Сделаем важное допущение: произведение p n сохраняется постоянное значение, а именно
np==const
(это означает, что среднее число появлений события в различных сериях испытаний, т.е. при различных значениях n, остается неизменным).
По формуле Бернулли:
pn (k)=C
Т.к. np=, то р=
Рn (k) =
Поскольку n - велико, то вместо Рn(k) найдем
Можно показать, что в этом случае Pn (k)= - это закон распределения Пуассона вероятностей массовых (n - велико) редких (р - мало) событий.
Замечание. Есть специальные таблицы, пользуясь которыми можно по известным k и найти Рn (k).
Пример. Аппаратура содержит 5000 элементов, вероятность отказа каждого из них Р=0,001. Найти вероятность отказа аппаратуры, если она отказывает при отказе хотя бы одного из элементов.
Решение. n - велико, р - мало, поэтому можно применить формулу Пуассона
Ротказа=Р1+Р2+...+Р5000.
Справа сумма вероятностей отказов 1, 2х, 3х, ..., 5000 -ти элементов.
Ротказа=1–Р5000 (0), где Р5000 (0)–вероятность того, что не откажет ни один из 5000 элементов.
Р5000 (0)= е-=е-=е-nр=е-5000 0,001=е-5
Ротказа=1–е-5 0,993