- •1. Предмет теории вероятностей. Случайный эксперимент.
- •2. Классическое определение вероятности.
- •3. Геометрическое определение вероятности
- •4. Аксиоматическое определение вероятности
- •5. Условные вероятности
- •6. Независимые события
- •7. Формулы полной вероятности и Байеса
- •8. Схема независимых испытаний Бернулли
- •9. Случайные величины. Функция распределения случайной величины и ее свойства
- •10. Дискретные случайные величины. Закон распределения дсв.
- •12. Непрерывные случайные величины. Плотность вероятностей
- •13. Важнейшие непрерывные случайные величины
- •1 4. Математическое ожидание св.
- •15. Моменты. Дисперсия. Среднее квадратическое отклонение.
- •16. Чх дискретных и непрерывных случайных величин
- •17. Случайные векторы. Фр случайного вектора и ее свойства.
- •18. Дискретные случайные векторы. Зр дискретного случайного вектора
- •19. Непрерывные случайные векторы. Плотность вероятностей и ее свойства
- •20. Пример. (Равномерное распределение в области ).
- •21. Независимость случайных величин
- •22. Условные законы распределения и условные числовые характеристики
- •23. Числовые характеристики случайных векторов
- •24. Теоремы о числовых характеристиках
- •25. Некоррелированность случайных величин и ее связь с независимостью
- •26. Коэффициент корреляции его свойства
- •27. Многомерное нормальное (гауссовское) распределение
- •28. Функции случайных аргументов
- •29. Композиция (свертка) законов распределения
- •30. Неравенство Чебышева
- •31. Законы больших чисел
- •32. Теорема 3 (збч для независимых, одинаково распределенных св).
- •33. Центральная предельная теорема
- •34. Теорема 2 (Ляпунова) (цпт для независимых, разнораспределенных св)
6. Независимые события
Зависимость событий понимается в вероятностном смысле, а не в функциональном. Это означает, что по появлению одного из зависимых событий нельзя однозначно судить о появлении другого. Вероятностная зависимость означает, что появление одного из зависимых событий только изменяет вероятность появления другого. Если вероятность не изменяется, то события считаются независимыми.
Определение: Говорят, что событие А не зависит от события В, если его условная вероятность совпадает с безусловной вероятностью : .
Если событие А зависит от события В, то .
Понятие независимости симметрично, то есть, если событие А не зависит от события В, то и событие В не зависит от события А. Действительно, пусть . Тогда .
Поэтому говорят просто, что события А и В независимы.
Определение: События А и В называются независимыми, если .
Если , то события А и В считаются зависимыми.
Отметим, что данное определение справедливо и в случае, когда или .
Свойства независимых событий.
1. Если события А и В являются независимыми, то независимыми являются также следующие пары событий: .
Докажем, например, независимость событий . Представим событие А в виде: . Поскольку события являются несовместными, то , а в силу независимости событий А и В получаем, что . Отсюда , что и означает независимость . ■
2. Если событие А не зависит от событий В1 и В2, которые являются несовместными ( ), то событие А не зависит и от суммы .
Действительно, используя аксиому аддитивности вероятности и независимость события А от событий В1 и В2, имеем:
. ■
Связь между понятиями независимости и несовместности.
Пусть А и В любые события, имеющие ненулевую вероятность: , так что . Если при этом события А и В являются несовместными ( ), то и поэтому равенство не может иметь место никогда. Таким образом, несовместные события являются зависимыми.
Когда рассматривают более двух событий одновременно, то попарная их независимость недостаточно характеризует связь между событиями всей группы. В этом случае вводится понятие независимости в совокупности.
Определение: События называются независимыми в совокупности, если для любого 2 m n и любой комбинации индексов справедливо равенство:
.
При m = 2 из независимости в совокупности следует попарная независимость событий. Обратное неверно.
7. Формулы полной вероятности и Байеса
Предположим, что с данным случайным экспериментом связана полная группа событий , вероятности которых известны. Нас интересует некоторое событие А, которое может наступить одновременно с одним из событий . При этом условные вероятности наступления события А при каждом известны. Надо определить безусловную вероятность .
Представим событие А в виде: .
В последней сумме слагаемые являются попарно несовместными: . Поэтому, используя аксиому аддитивности и правило умножения вероятностей, получаем:
.
Формула называется формулой полной вероятности. В ней события называются гипотезами (так как одно из обязательно происходит), а - вероятностями гипотез.
Пусть, по-прежнему, со случайным экспериментом связано n гипотез , вероятности которых известны. Известно также, что гипотеза сообщает событию А вероятность . Предположим, что эксперимент был произведён, и в результате событие А произошло. Этот факт приводит к переоценке вероятностей гипотез . Количественно этот вопрос решает следующая формула: .
Полученная формула называется формулой Байеса (или формулой гипотез). В ней называются априорными вероятностями гипотез (они определяются a priori – до проведения опыта). Условные вероятности называются апостериорными вероятностями гипотез (они вычисляются a posteriori – после проведения опыта, когда стало известно, что событие А произошло).
Пример. По каналу связи с помехами передаются двоичные символы {0,1}. Вероятности искажения символов в канале (0 1, 1 0) одинаковы и равны 0.2. Вероятность символа 0 на входе канала равна 0,9, а вероятность символа 1 - 0,1. На выходе канала принят сигнал, соответствующий 1. Определить вероятность того, что на вход канала подавалась также 1.
Решение. гипотезы: = {На входе канала связи символ 0}, = {На входе канала связи символ 1}.
Очевидно, и по условию , то есть события и образуют полную группу событий. Пусть событие А = {На выходе канала принят символ 1}.
По условию задачи вероятность искажения символа 0 в канале суть условная вероятность , а условная вероятность является вероятностью неискажения в канале символа 1. В терминах введенных обозначений требуется найти условную (апостериорную) вероятность .
Найдем вначале по формуле полной вероятности безусловную вероятность события А:
.
Затем, в соответствии с формулой Байеса, находим апостериорную вероятность :
(при априорной вероятности ).
Очевидно, что при этом апостериорная вероятность (при априорной вероятности ).
Замечание. Таким образом, даже при приеме на выходе канала связи 1 мы отдаем предпочтение в пользу 0 на входе. Это объясняется тем, что априорная вероятность 0 на входе канала существенно больше априорной вероятности 1.