- •1.1 Случайные события: элементарные, достоверные, невозможные, несовместные, совместные, равновозможные. Попарно-несовместные, образующие полную группу. Пространство элементарных событий. Случай.
- •1.2. Сумма, произведение, разность, отрицание. Теоретико-множественная трактовка. Диаграммы Эйлера-Венна. Алгебра событий. Понятие сигма-алгебры.
- •1.3. Частота события. Свойство статистической устойчивости. Статистическое определение вероятности.
- •1.4. Классическое определение вероятности события. Непосредственное вычисление вероятностей.
- •1.5. Комбинаторика: правило умножения и сложения. Основные схемы: с возвращением, без возвращения. Понятия размещения, сочетания, перестановки.
- •1.6. Геометрическое определение вероятности.
- •1.7. Аксиоматическое определение вероятности. Свойства вероятностей.
- •1.8. Вероятностное пространство.
- •Независимые случайные величины Определения
- •1.12 Вероятность суммы событий
- •1.13 Формула полной вероятности.
- •1.14 Формула Байеса
- •1.15.Однородная цепь Маркова
- •1.16. Независимые испытания. Схема и формула Бернулли. Многоугольник распределения вероятностей.
- •1.17 . Предельные теоремы в схеме Бернулли: формула Пуассона, локальная и интегральная теоремы Муавры-Лапласа.
- •1.18 Схема Бернулли. Наивероятнейшее число
- •2.1.Понятие и определение случайной величины.
- •2.2. Закон распределения случайной величины. Многоугольник распределения.
- •2.3. Дискретные и непрерывные случайные величины
- •2.4.Дискретные случайные величины. Сумма, разность, произведение на число.
- •2.5. Произведение д.С.В. Независимость.
- •2.9. Числовые характеристики случайных величин. Мат ожидание. Свойства мат ожидания.
- •2.10. Числовые характеристики случайных величин. Дисперсия. Свойства. Среднее квадратное отклонение
- •2.11. Числовые характеристики случайных величин. Квантили. Мода, медиана. Начальные и центральные моменты.
- •2.12. Производящая функция (случай целочисленных случайных величин).
- •3.1. Понятие системы случайных величин. Закон распределения в дискретном случае.
- •3.8 Числовые характеристики. Математическое ожидание и дисперсия. Центр рассеивания.
- •3.9 Корреляционный момент. Свойства ковариации. Ковариационная матрица.
- •3.10 Коэффициент корреляции. Свойства. Линейная корреляционная зависимость.
- •3.11 Двумерное нормальное распределение. Центр рассеивания. Формула вероятности
- •3.12 Условное мат. Ожидание. Регрессия. Коэффициент линейной регрессии.
- •5.1 Неравенство Чебышёва
- •5.2 Неравенство Маркова для с.В. Принимающих неотрицательные значения
- •5.3 Сходимость по вероятности
- •5.4 Закон больших числе в форме Чебышёва
- •5.5 Закон больших чисел в форме Бернулли (схема Бернулли)
- •5.6 Центральная предельная теорема (формулировка, пример применения для решения задач)
- •5.7 Центральная предельная теорема в случае схемы Бернулли (теорема Муавра-Лапласа).
- •Глава 1. Случайные события
- •Глава 2. Случайные величины
- •Глава 3. Системы случайных величин
- •Глава 5. Предельные теоремы
Независимые случайные величины Определения
Определение 5. Пусть дано семейство случайных величин , так что. Тогда эти случайные величины попарно независимы, если попарно независимы порождённые ими сигма-алгебры . Случайные величины независимы в совокупности, если таковы порождённые ими сигма-алгебры.
Определение, данное выше, эквивалентно любому другому из нижеперечисленных. Две случайные величины X, Y независимы тогда и только тогда, когда:
Для любых A, B :
Для любых борелевских функций случайные величины f(X), g(Y) независимы.
Для любых ограниченных борелевских функций f,g: R→R:
1.12 Вероятность суммы событий
Теорема сложения вероятностей. Вероятность суммы двух несовместных событий равна сумме вероятностей этих событий:
Р(А+В) = Р(А) + Р(В).
Вероятность суммы двух совместных событий выражается формулой:
Р(А+В) = Р(А) + Р(В) – Р(АВ).
Следствие 1. Сумма вероятностей событий, составляющих полную группу, равна единице:
Р(А) + Р(В) + ... + Р(N)=1,
где события А, В, ..., N образуют полную группу.
Действительно, так как события А, В, ..., N образуют полную группу, то событие А+В+...+N по правилу 1 является достоверным и Р(А+В + ... +N)=1. Вспомним, что события, образующие полную группу, являются несовместными. Тогда по теореме сложения вероятностей Р(А+В+...+N) = Р(А) + Р(В) + ... + Р(N). Из двух полученных равенств делаем вывод: Р(А) + Р(В) + ... + Р(N)=1.
Следствие 2. Вероятность события, противоположного А, равна единице минус вероятность события А:
P() = 1 P(A).
1.13 Формула полной вероятности.
Формула полной вероятности
позволяет вычислить вероятность интересующего события через условные вероятности этого события в предположении неких гипотез, а также вероятностей этих гипотез.
Формулировка
Пусть дано вероятностное пространство (, и полная группа попарнонесовместных событий , таких что
Пусть A — интересующее нас событие. Тогда
Замечание
Формула полной вероятности также имеет следующую интерпретацию. Пусть N — случайная величина, имеющая распределение
.
Тогда
, т.е. априорная вероятность события равна среднему его апостериорной вероятности.
1.14 Формула Байеса
Формулировка
основная статья: Байесовская вероятность
,
где
P(A)— априорная вероятность гипотезы A (смысл такой терминологии см. ниже);
P(A|B)— вероятность гипотезы A при наступлении события B (апостериорная вероятность);
P(B|A)— вероятность наступления события B при истинности гипотезы A;
P(B)— полная вероятность наступления события B.
Доказательство
Формула Байеса вытекает из определения условной вероятности. Вероятность совместного события AB двояко выражается через условные вероятности
Вычисление P(B)
В задачах и статистических приложениях P(B) обычно вычисляется по формуле полной вероятности события, зависящего от нескольких несовместных гипотез, имеющих суммарную вероятность 1.
,
где вероятности под знаком суммы известны или допускают экспериментальную оценку.В этом случае формула Байеса записывается так:
«Физический смысл» и терминология
Формула Байеса позволяет «переставить причину и следствие»: по известному факту события вычислить вероятность того, что оно было вызвано данной причиной.События, отражающие действие «причин», в данном случае называют гипотезами, так как они — предполагаемые события, повлекшие данное. Безусловную вероятность справедливости гипотезы называют априорной (насколько вероятна причина вообще), а условную — с учетом
факта произошедшего события —апостериорной (насколько вероятна причина оказалась с учетом данных о событии).