- •I. Случайные события
- •II. Случайные величины и их распределения
- •III. Многомерные случайные величины
- •IV. Предельные теоремы теории вероятностей
- •I. Случайные события
- •1.1. Предмет теории вероятностей
- •1.2. Пространство элементарных исходов
- •1.3. События, операции над ними
- •1.4. Свойства операций
- •1.5. Алгебра и σ– алгебра событий
- •1.6. Вероятность событий
- •1.6.1. Классическое определение вероятностей
- •1.6.2. Элементы комбинаторики в теории вероятностей
- •1.6.3. Урновая схема
- •1.6.4. Геометрическая вероятность
- •1.6.5. Статистическое определение вероятности
- •1.6.6. Аксиоматическое определение вероятности
- •Условная вероятность. Независимость событий
- •1.8. Формула полной вероятности
- •1.10. Некоторые примеры вычисления вероятностей
- •1.11. Схема бернулли
- •1.12. Формула пуассона
- •1.13. Формула муавра – лапласа
- •Контрольные вопросы
- •Задачи.
1.6.5. Статистическое определение вероятности
В практических задачах выделение множества Ω не всегда возможно, но даже если множество и известно, выбор его элементов не обязательно равновозможен при бесконечном числе их, следовательно, воспользоваться приведенными выше определениями вероятности не удается. В основе статистического определения вероятности лежит опытный факт – так называемая устойчивость частот. Поясним этот термин на примере.
Будем подбрасывать монету достаточно долго и обозначим число появлений герба после n испытаний через . Было замечено (опытный факт), что с ростом n величина nг/n проявляет стремление приблизиться к числу 0,5. Чтобы проверить это обстоятельство Бюффон в 18 веке провел 4040 подбрасываний монеты, из них герб выпал 2048 раз, так что частота появления герба в этой серии испытаний оказалась равной nг/n=2048/4040=0,507. Пирсон провел 24000 бросаний специально изготовленной монеты, герб выпал 12012 раз, nг/n=0,5005.
Оказывается это явление имеет общий характер: частота осуществления какого-либо исхода в последовательности экспериментов, проводимых в одинаковых условиях, приближается к некоторому числу p [0,1]. Этот факт впервые был теоретически осмыслен Я. Бернулли. В своей теореме (1713 г.) он доказал что каково бы ни было ε > 0 с ростом n вероятность того, что частота события A отличается от некоторого постоянного числа p [0,1] не более чем на ε, стремится к 1:
Относительной частотой события A назовем отношение числа опытов, в которых событие А произошло, к числу проведенных опытов:
(1.3)
Тогда вероятность события A приближенно равна относительной частоте этого события. Чем больше число n, тем точнее равенство: . Это и есть статистическое определение вероятности.
Статистическая вероятность имеет те же свойства, что и при классическом определении.
Однако легко видеть, что статистическая вероятность обладает рядом существенных недостатков, главными из которых являются: 1) последовательность частот {nA/n} при проведении одной серии опытов отличается от последовательности частот в другой серии опытов; 2) на самом деле это никакая не последовательность, а конечное число членов последовательности, т.к. до сих пор еще никто не провел бесконечного числа опытов и в обозримом будущем этого делать не собирается – получить всю последовательность просто невозможно; 3) при таком определении вероятности события A не видно связи между классической и статистической вероятностями.
По-видимому, вероятность события A нужно определить как-то иначе, но так, чтобы имело место отмеченное желаемое свойство частот: в каком-то смысле отношение nA/n должно приближаться с ростом n к вероятности рассматриваемого события A (см. теорему 5 из раздела 4 и пример 2 после теоремы 5). При этом можно воспользоваться результатами, которые не вызывают сомнений, а именно: вероятность достоверного события равна 1, невозможного – 0, любого другого события – заключена между нулем и единицей.