Добавил:
Upload Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:
Terver_-_Shpory.doc
Скачиваний:
30
Добавлен:
22.09.2019
Размер:
4.87 Mб
Скачать

6. Независимые события

Зависимость событий понимается в вероятностном смысле, а не в функциональном. Это означает, что по появлению одного из зависимых событий нельзя однозначно судить о появлении другого. Вероятностная зависимость означает, что появление одного из зависимых событий только изменяет вероятность появления другого. Если вероятность не изменяется, то события считаются независимыми.

Определение: Говорят, что событие А не зависит от события В, если его условная вероятность совпадает с безусловной вероятностью : .

Если событие А зависит от события В, то .

Понятие независимости симметрично, то есть, если событие А не зависит от события В, то и событие В не зависит от события А. Действительно, пусть . Тогда .

Поэтому говорят просто, что события А и В независимы.

Определение: События А и В называются независимыми, если .

Если , то события А и В считаются зависимыми.

Отметим, что данное определение справедливо и в случае, когда или .

Свойства независимых событий.

1. Если события А и В являются независимыми, то независимыми являются также следующие пары событий: .

Докажем, например, независимость событий . Представим событие А в виде: . Поскольку события являются несовместными, то , а в силу независимости событий А и В получаем, что . Отсюда , что и означает независимость . ■

2. Если событие А не зависит от событий В1 и В2, которые являются несовместными ( ), то событие А не зависит и от суммы .

Действительно, используя аксиому аддитивности вероятности и независимость события А от событий В1 и В2, имеем:

. ■

Связь между понятиями независимости и несовместности.

Пусть А и В  любые события, имеющие ненулевую вероятность: , так что . Если при этом события А и В являются несовместными ( ), то и поэтому равенство не может иметь место никогда. Таким образом, несовместные события являются зависимыми.

Когда рассматривают более двух событий одновременно, то попарная их независимость недостаточно характеризует связь между событиями всей группы. В этом случае вводится понятие независимости в совокупности.

Определение: События называются независимыми в совокупности, если для любого 2 m n и любой комбинации индексов справедливо равенство:

.

При m = 2 из независимости в совокупности следует попарная независимость событий. Обратное неверно.

7. Формулы полной вероятности и Байеса

Предположим, что с данным случайным экспериментом связана полная группа событий , вероятности которых известны. Нас интересует некоторое событие А, которое может наступить одновременно с одним из событий . При этом условные вероятности наступления события А при каждом известны. Надо определить безусловную вероятность .

Представим событие А в виде: .

В последней сумме слагаемые являются попарно несовместными: . Поэтому, используя аксиому аддитивности и правило умножения вероятностей, получаем:

.

Формула называется формулой полной вероятности. В ней события называются гипотезами (так как одно из обязательно происходит), а - вероятностями гипотез.

Пусть, по-прежнему, со случайным экспериментом связано n гипотез , вероятности которых известны. Известно также, что гипотеза сообщает событию А вероятность . Предположим, что эксперимент был произведён, и в результате событие А произошло. Этот факт приводит к переоценке вероятностей гипотез . Количественно этот вопрос решает следующая формула: .

Полученная формула называется формулой Байеса (или формулой гипотез). В ней называются априорными вероятностями гипотез (они определяются a priori – до проведения опыта). Условные вероятности называются апостериорными вероятностями гипотез (они вычисляются a posteriori – после проведения опыта, когда стало известно, что событие А произошло).

Пример. По каналу связи с помехами передаются двоичные символы {0,1}. Вероятности искажения символов в канале (0 1, 1 0) одинаковы и равны 0.2. Вероятность символа 0 на входе канала равна 0,9, а вероятность символа 1 - 0,1. На выходе канала принят сигнал, соответствующий 1. Определить вероятность того, что на вход канала подавалась также 1.

Решение. гипотезы: = {На входе канала связи символ 0}, = {На входе канала связи символ 1}.

Очевидно, и по условию , то есть события и образуют полную группу событий. Пусть событие А = {На выходе канала принят символ 1}.

По условию задачи вероятность искажения символа 0 в канале суть условная вероятность , а условная вероятность является вероятностью неискажения в канале символа 1. В терминах введенных обозначений требуется найти условную (апостериорную) вероятность .

Найдем вначале по формуле полной вероятности безусловную вероятность события А:

.

Затем, в соответствии с формулой Байеса, находим апостериорную вероятность :

(при априорной вероятности ).

Очевидно, что при этом апостериорная вероятность (при априорной вероятности ).

Замечание. Таким образом, даже при приеме на выходе канала связи 1 мы отдаем предпочтение в пользу 0 на входе. Это объясняется тем, что априорная вероятность 0 на входе канала существенно больше априорной вероятности 1.

Соседние файлы в предмете [НЕСОРТИРОВАННОЕ]