- •1)Основные понятия теории вероятностей. Случайные события и их классификация.
- •2)Вероятность события. Классическое, статистическое и геометрическое определения.
- •3)Действия над событиями.
- •4)Теоремы сложения и умножения вероятностей.
- •1)Теорема сложения вероятностей несовместных событий:
- •2)Теорема сложения вероятностей совместных событий:
- •3)Теорема умножения вероятностей:
- •4)Теорема сложения вероятностей совместных событий:
- •5)Зависимые и независимые события.Условная вероятность.
- •6)Формула полной вероятности. Теорема Байеса
- •7)Повторные независимые испытания. Формула Бернулли.
- •8)Теорема Пуассона. Локальная и интегральная теоремы Муавра-Лапласа.
- •9)Случайная величина и ее закон распределения. Дискретные и непрерывные случайные величины.
- •11)Функция распределения случайной величины. Плотность распределения непрерывной случайной величины. Их свойства.
- •12)Числовые характеристики случайных величин: математическое ожидание, дисперсия, среднее квадратическое отклонение, их свойства.
- •1. Дисперсия постоянной величины равна нулю:
- •2. Постоянный сомножитель можно выносить за знак дисперсии,возведя его при этом в квадрат:
- •Дисперсия алгебраической суммы конечного числа независимых случайных величин равна сумме их дисперсий:
- •13)Мода, медиана, квантили. Начальные и центральные моменты случайных величин.
- •14)Неравенства Маркова и Чебышева.
- •15)Закон больших чисел. Теоремы Чебышева и Бернулли. Теорема Пуассона.
- •16)Центральная предельная теорема
- •17)Многомерные случайные величины
- •18)Функция и плотность распределения двумерной случайной величины. Их свойства.
- •19)Зависимые и независимые случайные величины. Условные законы распределения.
- •20)Числовые характеристики двумерных случайных величин. Ковариация, коэффициент корреляции.
- •21)Случайные процессы и их характеристики.
- •22)Марковские случайные процессы.
- •23)Уравнения Чепмена-Колмогорова.Предельные вероятности состояний.
- •24)Общая характеристика систем массового обслуживания. Потоки событий.
- •25)Процессы гибели и размножения.
- •26)Системы массового обслуживания с отказами.
- •27)Системы массового обслуживания с ожиданием.
- •28)Общие сведения о выборочном методе.
- •29)Вариационные ряды и их графическое изображение
- •30)Числовые характеристики выборочного распределения. Их свойства.
- •31)Понятие об оценке параметров. Характеристики оценок.
- •39)Однофакторный дисперсионный анализ. Межгрупповая и внутри групповая вариации
- •40)Понятие о двухфакторном дисперсионном анализе.
- •41)Основные положения регрессионного анализа.
- •42)Линейная парная регрессия.
- •43)Оценка тесноты корреляционной зависимости для линейной модели. Коэффициент детерминации.
- •44)Интервальная оценка функции регрессии.
- •45)Проверка значимости уравнения регрессии. Интервальная оценка параметров парной модели.
6)Формула полной вероятности. Теорема Байеса
Формула полной вероятности позволяет вычислить вероятность интересующего события через условные вероятности этого события в предположении неких гипотез, а также вероятностей этих гипотез.
Если событие А может произойти только при условии появления одного их событий (гипотез) B1,B2… Bn, образующих полную группу, то вероятность события А равна сумме произведений вроятностей каждой из гипотез на соответствующие условные вероятности А.
где Р(А)-полная вероятность события А
Р(Вi)-вероятность гипотезы Bi,при которой может произойти событие А(i=1,2.n)
Р(А|Bi)-вероятность события А,вычесленная при условии наступления гипотезы
Hi (i=1,2…n).
Доказательство:
По условию события (гипотезы) В1,В2,...Bn образуют полную группу событий, следовательно, они единственно возможные и несовместные.
Так как гипотезы В1,В2,...Bn — единственно возможные, а событие А по условию может произойти только вместе с одной из гипотез, то
А = АВ1 + АВ2 + ... + АВn.
В силу того, что гипотезы В1,В2,...Bn несовместны, можно применить теорему сложения вероятностей:
Р(А) = Р(АВ1)+Р(АВ2)+... + Р(АВn) = ∑ P(ABi)
/=1
И по теореме умножения вероятностей получаем:
Теорема Байеса— одна из основных теорем элементарной теории вероятностей, которая позволяет определить вероятность того,что произошло какое-либо событие(гипотеза)при наличии лишь косвенных тому подтверждений(данных), которые могут быть неточны.
,
где
P(A)—априорная вероятность гипотезы A(смысл такой терминологии см.ниже);
P(A | B) — вероятность гипотезы A при наступлении события B (апостериорная вероятность);
P(B | A) — вероятность наступления события B при истинности гипотезы A;
P(B) — вероятность наступления события B.
Значение формулы Байеса состоит в том, что при наступлении события А, т.е. по мере получения новой информации, мы можем проверять и корректировать выдвинутые до испытания гипотезы.
Такой подход, называемый байесовским, дает возможность корректировать управленческие решения, например, в экономике, а также оценки неизвестных параметров распределения изучаемых признаков в статистическом анализе и т.п.
7)Повторные независимые испытания. Формула Бернулли.
Схема Бернулли:
Если вероятность наступления события А в каждом испытании не меняется в зависимости от исходов других, то такие испытания называются независимыми относительно события А.
Если независимые повторные испытания проводятся при одном и том же комплексе условий, то вероятность наступления события А в каждом испытании одна и та же.
случай,когда испытания являются независимыми и вероятность появления события А в каждом испытании постоянна.Такие испытания называются повторными независимыми.
Примером независимых испытаний может служить проверка на годность изделий, взятых по одному из ряда партий. Если в этих партиях процент брака одинаков, то вероятность того, что отобранное изделие будет бракованным, в каждом случае является постоянным числом.
Теорема (Формула Бернулли):
Если вероятность р наступления события А в каждом испыта-нии постоянна, то вероятность Рmn того, что событие А наступит m раз в n независимых испытаниях, равна
где q = 1 - р.
Число m0 наступления события А в n независимых испытаниях называется наивероятнейшим, если вероятность его осуществления РМ,n по крайней мере не меньше вероятностей РМ,n других событий при любом m:
Решим первое неравенство системы, используя формулы Бернулли и числа сочетаний, запишем:
преобразовав которое, получим –
Для второго (аналогично) –
Окончательно получаем: