- •1.Понятие испытания. Простр-во элементарных событий.
- •3.Классическое определение вероятности.
- •4. Относительная частота. Устойчивость относительной частоты.
- •5.Статистическая вероятность.
- •6.Геометрическая вер.
- •7.Вычисление вер. С использованием комбинаторных схем
- •9Понятие вероятностного пространства
- •12.Условная вер.. Теорема умножения вер..
- •13.Независимые события. Теорема умножения для независимых событий.
- •14.Вер. Появления хотя бы одного события
- •15.Формула полной вероятности
- •16.Формула Байеса
- •17.Формула Бернулли
- •18.Наивероятнейшее число появления событий в последовательности независимых испытаний
- •19.Формула Пуассона
- •20.Функция Лапласа.
- •21.Понятие случайной вел-ны. Дискретные и непрерывные случ. Вел-ны.
- •24.Ряд распр. Дискретной случайной вел-ны
- •23.Функция распр. Св и ее свойства
- •24. Плотность распр. Вер. Непрерывной св и ее св-ва.
- •25. Мат. Ожидание дсв и нсв. Св-ва мат. Ожидания.
- •31. Гипергеометрическое распр.
- •29.Начальные и центральные моменты случ. Величин.
- •30. Биномиальный закон распределения.
- •33. Закон Пуассона
- •35. Показательное распределение.
- •38. Понятие закона больших чисел.
- •39. Неравенство Чебышева.
- •42. Понятие центральной предельной теоремы.
- •43. Генеральная совокупность и выборка. Выборочное распределение.
- •40. Теорема Чебышева.
- •44. Вариационный ряд, его хар-ки. Гистограмма. Полигон.
- •48. Эмпирическая ф-ция распределения и ее св-ва.
- •46. Числовые хар-ки выборочного распр.: выборочное среднее, выборочная дисперсия, медиана, ассиметрия, эксцесс, выборочные моменты.
- •48. Интервальные оценки параметров распр.. Доверительный интервал.
- •50. Описание гипотез. Простые и сложные гипотезы. Нулевая и конкурирующая гипотезы.
- •51. Критерии проверки статистических гипотез.
18.Наивероятнейшее число появления событий в последовательности независимых испытаний
Опр.: Наивероятнейшим числом m0 наступления соб. А в n независим. испытаниях назыв. число, для кот. вер. превышает или по крайней мере не менее вер. каждого из остальных возм. исходов исп. Пусть соб. А наступило m0 раз в n испы. Вер. появл. соб. А обозначим p; P(A)=p, а , тогда по формуле Бернули . По определению: -формула (1); -формула (2). Из нер-ва (1) получаем: ; ; . Т.к. q+p=1, то . Из нер-ва (2) получаем: ; ; ; . Т,о. для нахождения наивероятнейшего числа мы получили нер-во: . Замечание 1: Длина интервала, определяемая нер-вом равна 1; Замечание 2: Если границы интервала – дробные числа, то значение наивероятнейшего числа одно. Если границы – целые числа, то знач. наивер. числа два.
19.Формула Пуассона
Если вер. события p в отд. испытании близка к 0, то даже при большом числе испытаний n, но небольшой величине вероятности , получен. по лок. формуле Лапласа недостаточно близки к их ист. знач.м. В таких случаях применяют формулу Пуассона. Теорема: Если вер. p наступления соб. А в кажд. исп постоянна, но близка к 0, число независим. Исп. n достаточн. велико, а , то вер. того, что в n независ. испытаниях соб. А наступит m раз . Это формула Пуассона. Док-во: Для вычисления вер. воспользуемся ф. Бернулли:
(Т.к. ,то )= Т.к. по условию n велико, то найдем предел правой части последн. равенства при , при этом будет получено приближен. значение вер.: = = = = Пределы всех скобок, кроме предпоследн. равны 1 при . Сл-но вер. того, что в n исп. соб. появится m раз . Замечание: Ф. Пуассона обычно используют, когда , а .
52 Уровень значимости и мощность критерия. Ошибки первого и второго рода. Проверяя гипотезы с помощью статистического критерия, может возникнуть одна из четырех ситуаций: 1) гипотеза H0 истинна (и поэтому H1 – ложна) и предпринимается действие А; 2) гипотеза H1 истинна (и поэтому H0 – ложна) и предпринимается действие А; 3) ) гипотеза H0 истинна (и поэтому H1 – ложна) и предпринимается действие В; 4) гипотеза H1 истинна (и поэтому H0 – ложна) и предпринимается действие В. В ситуациях 2 и 3 получается ошибка. Существует 2 типа ошибок. Ошибка, состоящая в принятии гипотезы H0, когда она ложна (ошибка второго рода), качественно отличается от ошибки, состоящей в отвержении H0, когда она истинна (ошибка первого рода). При этом числа αi = αi(δ) = Pi(δ(X)≠ Hi), характеризующие вероятность отвержения гипотезы Hi, когда она верна, называют вероятностями ошибок (i+1)-го рода критерия δ. Набором вероятностей αi(δ) ошибочных решений характеризуется кач-вом критерия δ. Правильное решение также может быть принято двумя способами (ситуации 1 и 4): когда гипотеза H0 принимается, ибо она верна, и когда гипотеза H0 отвергается, ибо она ложна. В ситуации 1 не совершается ошибка первого рода, в ситуации 4 – второго рода. Уровень значимости критерия не меняет степени риска, связанного с возможностью ошибки второго рода, т.е. с принятием неверной гипотезы. И при данном уровне значимости можно по-разному определить критическую область. Как правило, ее определяют так, чтобы мощность критерия 1 – α1(δ) была возможно большей: P (X Î ] x1; x2[|H1) = max. Мощностью критерия δ называется вероятность 1 – α1(δ) несовершения ошибки второго рода. Чем больше мощность критерия, тем меньше вероятность принятия неверной гипотезы.