- •Пример.
- •Определение случайного события.
- •Несовместные события.
- •Вероятность случайного события.
- •Свойства вероятности
- •Классическое определение вероятности события
- •Пример.
- •Основные формулы теории вероятностей Независимость случайных событий.
- •Правило умножения вероятностей
- •Вероятность суммы событий.
- •Некоторые формулы комбинаторики. Правило сложения.
- •Правило умножения.
- •Пример.
- •Размещения и перестановки
- •Сочетания
- •Формула Пуассона
- •Формула полной вероятности.
- •Случайная величина.
- •Пример.
- •Дискретные случайные величины.
- •Непрерывные случайные величины.
- •Числовые характеристики случайных величин.
- •Свойства дисперсии.
- •Некоторые законы распределения. Биномиальный закон распределения.
- •Закон распределения Пуассона.
- •Полиномиальное распределение
- •Пример.
- •Равномерный закон распределения случайной величины.
- •Нормальный закон распределения случайной величины (закон Гаусса).
- •Стандартная форма нормального закона распределения.
- •Распределение «хи-квадрат».
- •График распределения.
- •Показательный (экспоненциальный) закон распределения.
- •Структурные характеристики распределения случайной величины.
- •Медиана.
- •Квантиль.
- •Системы случайных величин.
- •Свойства функции распределения.
- •Свойства плотности вероятности.
- •Математическое ожидание и дисперсия системы случайных величин.
- •Дисперсия двумерной случайной величины.
- •Условное математическое ожидание.
- •Свойства коэффициента корреляции.
- •Функции случайных величин. Функции одной случайной величины.
- •Функция двух случайных величин.
- •Случайные функции.
- •Свойства математического ожидания случайной функции.
- •Свойства дисперсии случайной функции.
- •Свойства корреляционной функции.
- •Свойства взаимной корреляционной функции.
- •Свойства корреляционной функции стационарной случайной функции.
- •Математическая статистика. Выборочный метод.
- •Свойства эмпирической функции распределения.
- •Статистические оценки параметров распределения. Точечные оценки.
- •Метод моментов.
- •Метод наибольшего правдоподобия.
- •Распределение дискретной случайной величины.
- •Распределение непрерывной случайной величины.
- •Распределение выборочных характеристик.
- •Пример 1.
- •Пример 2.
- •3.Распределение выборочной дисперсии.
- •Доверительные интервалы.
- •Проверка статистических гипотез.
- •1.Понятие статистической гипотезы.
- •Проверкa гипотезы о равенствt средних двух нормальных распределений с известными дисперсиями.
- •Двухвыборочный t-тест с одинаковыми и различными дисперсиями.
- •Двухвыборочный f-тест для дисперсий.
- •Парный двухвыборочный t-тест для средних значений.
- •Дисперсионный анализ.
- •Двухфакторный дисперсионный анализ без повторений и с повторениями
Вероятность случайного события.
Вероятность – численная мера, которая определяет степень возможности появления случайного события в рассматриваемом опыте.
Если А - случайное событие, то р(А) – вероятность наступления события А. Вероятность р(А) можно рассматривать как функцию множества А, которая отображает множество А на отрезок [0;1]. Чем больше значение функции р(А), тем больше вероятность того, что событие А произойдёт.
Свойства вероятности
0 ≤ р(А) ≤ 1
р(А)=0 – вероятность невозможного события
р(А)=1 – вероятность достоверного события
Классическое определение вероятности события
Если множество Ω состоит из n равновозможных элементарных событий, то вероятность события A определяется по формуле
р(А)=m(A)/n,
где m(A) – число элементарных исходов испытания, благоприятствующих появлению события A, а n – общее число всех возможных элементарных исходов испытания.
Пример.
Событие A – выпадение при бросании игральной кости четной грани, а событие В – нечётной.
A={2,4 , 6}
В={1, 3, 5}
m(A)=3
n=6
р(А)=m(A)/n=3∕6=1∕2.
Значит, 50 % исходов испытания – выпадение четной грани.
р(А×В)=m(AВ)/n=2/6=1/3.
Частотный метод определения вероятности.
Классический метод определения вероятности не всегда применим. На практике чаще используют второй метод – частотный. Получаемая вероятность называется эмпирической (опытной).В этом случае производятся реальные опыты. Обозначим число проведенных опытов N.
Относительная частота fN(А) появления события А в N опытах опре деляется равенством:
fN(А)=М(А)/N,
где N – общее число проведенных опытов, М(А) – число опытов, которые закончились событием А.
При бесконечном увеличении общего числа всех опытов справедливо равенство:
,
т.е. при увеличении общего числа опытов относительная частота fN(А) сходится по вероятности к теоретической вероятности р(А)
Основные формулы теории вероятностей Независимость случайных событий.
Различные события могут быть связаны причинно-следственными связями. Но теория вероятностей изучает вероятностную связь, которая проявляется и тогда, когда отсутствует причинно-следственная связь.
Например, в опыте с бросанием кубика определим события А и B следующим образом: А ={1,2, 3 6}, B={2,4,}. Подсчитаем вероятности событий А и B. Соответственно р(А)= 4∕6, р(В)= 2∕6. Если известно, что в результате опыта произошло событие B, то можно определить вероятность того, что одновременно произошло и событие А. Обозначим эту вероятность р(А|В). В общем случае вероятность р(А|В) называется условной вероятностью события А, при условии что произошло событие В. В нашем примере эта вероятность равняется 1/2. Действительно, событие В содержит два возможных исхода опыта - 2 и 4. Исход 2 содержится и в событии А. Если реализовалось событие В, то один из двух возможных исходов будет благоприятствовать событию А. Следовательно, р(А|В) = 1/2. В данном случае мы воспользовались классической формулой вычисления вероятности. Заметим, что здесь рассматривается другой, отличный от первоначального, опыт.
Условную вероятность события А можно вычислить по формуле:
р(А|В)=р(А×В)/р(В), (р(В) ≠ 0).
Аналогично, условную вероятность события В можно вычислить по формуле:
р(В|А)=р(А×В)/р(А), (р(А) ≠ 0).
События А и B называются независимыми, если вероятность одного из них не зависит от того, произошло другое или нет.
Если события независимые, то условная вероятность равна безусловной вероятности этого события:
Р(А|В)=Р(А).
Эту формулу можно использовать для определения независимости событий, при условии р(В) ≠ 0.