Добавил:
Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:

ТВиМСшпора(первоначальная)

.doc
Скачиваний:
96
Добавлен:
03.10.2013
Размер:
917.5 Кб
Скачать

1.Основные определения и формулы комбинаторики.

Если объект А может быть выбран из сов-ти n способами, а объект В – m способами, то выбрать либо А, либо В можно m+n способами, а пара АВ в указанном порядке m*n способами. Пусть есть n различных предметов, тогда: Перестановка. Кол-во способов их расположения Pn = n!; Размещение. Кол-во способов, * можно образовать последовательность k различных предметов Ank = ; Сочетание. Кол-во способов, * можно образовать множество k предметов Cnk = . Гипергеометрическое распределение. Дана сов-ть n предметов, из них k предметов отмеченных, выбирается m предметов, вероятность того, что среди них будет l отмеченных P = (Cn-km-l * Clk) / Cmn

2. Основные понятия теории вероятностей.

Случайное событие – это такое явл., * при неоднократном повторении опытов протекает каждый раз по-разному. Теория вероятностей – мат. наука, изучающая закономерности случайных событий. Событие – всякий факт, * в результате опята может произойти или не произойти. Суммой событий А1- Аn называется событие состоящее в проявлении хотя бы одного из них . Произведением событий А1- Аn называют событие состоящее в одновременном появлении всех событий . Несколько событий называются несовместными в данном опыте, если никакие два из них не могут появляться одновременно. События называются равновозможными, если их появление в данном опыте одинаково возможно. Несколько событий в данном опыте образуют полную группу событий, если в результате непременно произойдет хотя бы одно из них. Противоположными событиями называются два единственно возможных события образующих полную группу. Вероятность событий – число, * вводят для сравнения событий. Вероятность события – численная мера степени объективности возможности события. Событие называют достоверным, если в результате опыта оно произойдет обязательно. Событие называют невозможным, если в результате опыта оно ни при каких условиях не произойдет. Вероятность – величина безразмерная [0;1].

3. Основные типы событий. Алгебра событий.

Несколько событий называются несовместными в данном опыте, если никакие два из них не могут появляться одновременно. События называются равновозможными, если их появление в данном опыте одинаково возможно. Событие называют достоверным, если в результате опыта оно произойдет обязательно. Событие называют невозможным, если в результате опыта оно ни при каких условиях не произойдет. Суммой событий А1- Аn называется событие состоящее в проявлении хотя бы одного из них . Произведением событий А1- Аn называют событие состоящее в одновременном появлении всех событий .

4. Понятие вероятности событий.

Вероятность событий – число, * вводят для сравнения событий. Вероятность события – численная мера степени объективности возможности события. Благоприятствующие исходы – исходы, соответствующие рассматриваемому событию. Элементарный исход – каждый результат опыта. Вероятность – отношение числа благоприятствующих исходов к числу возможных исходов. Р(А) = m/n

5. Теорема сложения вероятностей и её следствия.

Вероятность суммы двух несовместных событий равна сумме их вероятностей. Док-во: Р(А) = m/n; Р(В) = k/n; Р(А+В) = (m+n)/k = m/n + k/m = P(A) + P(B). Если А1- Аn – полная группа событий, то Р(А1+…+Аn) = 1; Р(А+А)=1.

6. Формулы суммы и произведения совместных событий и их геометрической интерпретации.

Вероятность суммы двух совместных событий А и В равна сумме их вероятностей без вероятности их совместного появления. Р(А+В) = Р(А)+Р(В) – Р(АВ). Произведение событий А и B – событие, состоящее в их совместном появлении. P(AB)=P(A)*P(B).

7. Зависимые и независимые события. Теорема умножения вероятностей.

Событие А называется независимым от события В, если Р(А) не зависит от того произойдет или не произойдет событие В. Событие А называется зависимым от события В, если Р(А) меняется в зависимости от того произошло ли событие В или нет. Условная вероятность А – вероятность события А, вычисленная при условии , что имело место другое событие В. Вероятность произведения двух событий равна произведению вероятностей одного из них на условную вероятность другого, вычисленную при условии, что первое событие произошло. Р(А) = m/n, P(B) = k/n, P(A/B) = l/k; P(AB) = l/n * k/k = k/l * l/k = P(B) * P(A/B). При вычислении вероятности произведения событий, безразлично какое событие брать первым. Если событие А не зависит от события В, то В не зависит от А. Док-во: Р(А)*Р(В/А) = Р(В)*Р(А/В); Р(А)≠0, Р(А)*Р(В/А)=Р(В)*Р(А); Р(В/А)=Р(В). Вероятность произведения двух независимых событий равно произведению их вероятностей.

8. Формула полной вероятности.

Р события А может наступить лишь при условии появления одного из несовместных событий Н1-Нn, образующих полную группу и равную сумме произведений вероятностей каждого из этих событий на соответст. услов. Р(А). Р(А) = . Док-во: А = ; Р(А) =

9. Формула Байесса.

Теорема гипотез. Р(Нi/А) = Формула Байесса позволяет переоценить Р гипотез после того, как стал известен результат опыта, в котором событие А произошло.

10. Формула Бернулли.

Теорема о независимых испытаниях. Если производится n независимых опытов, в каждом из * событие А появляется с вероятностью Р, то вероятность того, что событие А произойдет ровно m раз выражается формулой Бернулли. Рn(m) = Cnmpmqn-m

11. Формула Пуассона.

Если Р(А) в каждом испытании постоянна и очень мала, а число испытаний n>>1, то Р наступления события m раз определяется Рn(m) = λm/m! * e , λ = n*p.

12. Дискретные случайные величины и возможности их описания.

Случайная величина – параметр, * в результате опыта может принимать то или иное значение. Дискретная случайная величина – случайная величина, * принимает определенные изолированные возможные значения с определенной вероятностью. Число значений может быть конечное или бесконечное. Непрерывная величина – случайная величина, * может принимать все значения из конечного или бесконечного промежутка. есть различные способы описания поведения случайной величины: графический, табличный, аналитический, параметрический.

13. Закон распределения случайной величины. Ряд и многоугольник распределения.

Закон распределения случайной величины – любое соотношение, устанавливающее связь между возможными значениями х и р их появления. Ряд распределения – таблица соответствия значений случайной величины и их вероятностей. Многоугольник распределения – графическое изображение ряда распределения.

14. Функция распределения и её свойства. Вероятность попадания на зад. участок.

F(x) = P(X<xi) – функция распределения для случайной величины х, а P(X<xi) – вероятность того, что случайная величина X принимает значение, меньшее x. Свойства: 1) 0≤F(x)≤1, 2) функция распределения – неубывающая функция своего аргумента. F(x2)≥F(x1), если x2>x1. 3) F(-∞)=0; 4) F(+∞)=1. Функция распределения дискретной величины есть ступенчатая функция. Вероятность попадания случайной величины на заданный участок равна приращению ф-ции распределения. P(α ≤ x ≤ β) = F(β) – F(α)

15.Плотность распределения и её свойства. Вероятностный и геометрический смысл.

Плотностью распределения вероятности некоторой случайной величины Х есть первая производная функции распределения. Вероятность того, что непрерывная случайная величина примет некоторое значение, принадлежащее интервалу (α;β) равно определенному интервалу от ф-ции плотности распределения, взятому в пределах от α до β. Свойства: 1) f(x)≥0; 2) интеграл в бесконечных пределах от плотности распределения равен 1. f(x) = F'(x) или f(x)= ∆x→0 lim(F(x+∆x)-F(x)/∆x). F(x+∆x)-F(x)≈f(x)*∆x. Вероятностный смысл: вероятность того, что случайная величина примет значение, принадлежащее интервалу (x, x+∆x), приближенно равна (с точностью до бесконечно малых высшего порядка относительно ∆x) произведению плотности вероятности в точке x на длину интервала ∆x. Геометрический смысл: вероятность того, что случайная величина примет значение, принадлежащее интервалу (x, x+∆x), приближенно равна площади прямоугольника с основанием ∆x и высотой f(x).

16. Математическое ожидание случайной величины и его свойства.

Математическое ожидание случайной величины х – сумма произведений всех возможных её значений на соответствующие им вероятности. МО – величина случайная. Свойства: 1) МО постоянной величины равно самой постоянной. 2) постоянный множитель можно выносить за знак МО. 3) МО суммы двух случайных величин равно сумме их МО. МО конечной суммы случайных величин равно сумме их МО. 4) МО произведения двух независимых величин равно произведению их МО. МО произведения конечного числа взаимно независимых случайных величин равно произведению их МО.

17. Дисперсия случайной величины. Свойства дисперсии и их следствия.

Отклонение – разность случайной величины и её МО. Дисперсия случайной величины – МО квадрата отклонения случайной величины от её МО. D[x] = M[x – M[x]]2. Свойства: 1) D[const] = 0; 2) D(kx) = k2D(x); 3) дисперсия равна разности МО квадрата случайной величины и квадрата МО. D(x) = M(x2) – (M(x))2 4) D суммы двух независимых величин равна сумме D этих величин. Следствия: D суммы конечного числа взаимно независимых случайных величин равна сумме D этих величин. D суммы случайной величины и const равна D случайной величины. D разности двух случайных независимых величин равна сумме их D.

18. МО и дисперсия числа появления события в независимых опытах.

МО числа появления события А в n независимых опытах равна произведению числа опытов на вероятность появления события А в каждом опыте. M[X] = n*p, X = x1+…+xn. M[X] = M[x1] + … + M[xn] = n*p. D числа появления события А в n независимых опытах, в каждом из * вероятность наступления А=р, равна произведению числа опытов на вероятность появления и непоявления события А в одном опыте. D[x] = D[x1] + … + D[xn] = n*p*q.

19. Непрерывные случайные величины. Числовые характеристики.

Непрерывная сл. вел. – случайная величина, * может принимать все значения из некоторого конечного/бесконечного промежутка (число возможных значений бесконечно). Характеристики, с помощью * можно в сжатой форме выразить наиболее существенные особенности распределения называют числовыми. Числовые характеристики: МО, D, мода, медиана. МО непрерывной случайной величины х - определенный интеграл, если хϵ[a;b] или несобственный интеграл, если хϵR. D непрерывной случайной величины х называется МО квадрата ее отклонения: D(x)=a∫b(x-M(x))2f(x)dx, xϵ[a;b], D(x)= -∞∫∞(x-M(x))2f(x)dx, xϵR. Мода случайной величины х - такое ее значение М0, * соответствует максимальное значение ее плотности вероятности. Медиана непрерывной случайной величины х - такое ее значение Ме, * определяется равенством P(x<Me)=(x>Me).

20. Начальные, центральные моменты дискретных и непрерывных случайных величин. Их взаимосвязь. Асимметрия и эксцесс.

Начальным моментом порядка k случайной величины х называют МО хk: νk = M[xk], D = ν2 – ν12. Центральным моментом порядка k случайной величины х называют МО (x – M[x-M[x])k. μk = M[x-M[x]]k. μ2 = ν2 – ν12 = D[x]. Третий центральный момент случайной величины служит для характеристики асимметрии (скошенности) распределения. As = μ33. Показывает смещение кривой вершины вправо или влево. Четвертый центральный момент служит для характеристики островершинности (крутости) распределения – эксцесс. Ek = μ44 – 3 Показывает смещение кривой распределения вверх или вниз.

21. Биноминальный, геометрический и гипергеометрический законы распределения.

Дискретная случайная величина х имеет биноминальное распределение, если она принимает значения 0,1, …, m, …, n с вероятностями Pn(m) = Cnm*pm*nn-m. M[x] = n*p, D[x] = n*p*q. Биноминальный закон распределения – закон распределения числа наступления события А в n независимых опытах, в каждом из * оно может произойти с вероятностью p. Дискретная случайная величина х имеет геометрическое распределение, если она принимает значение 1,2 …, m, … с вероятностями P(X=m) = p*qm-1. Случайная величина х имеющая геометрическое распределение представляет собой число m испытаний, проведенных по схеме Бернулли с вероятностью наступления события А в каждом опыте р до первого положительного исхода. M[x] = 1/p, D[x] = q/p2. Дискретная случайная величина х имеет гипергеометрическое распределение, если она принимает значения 1,2 …, min(n,N) с вероятностями P(X=m) = (CMm* CN-Mn-m)/ CNn, гду m = 0,1, …, min(n,N), m≤M, n≤N. Гипергеометрическое распределение имеет случайная величина Х=m - число объектов, обладающая заданным свойством среди n объектов, случайно извлеченных из совокупности М обладающие свойством N объектов.

22. Закон равномерности распределения.

Распределение вероятности называется равномерным, если на интервале, * принадлежат все возможные значения случайной величины, f(x) – const. Данный закон полностью характеризуется границами интервала.

23. Закон показательного распределения.

Показательным (экспоненциальным) распределением непрерывной случайной величины -такое распределение, для * плотность вероятности имеет следующий вид: f(x) = 0, x<0; λ*e-λx, x≥0. Показательный закон зависит от одного параметра λ.

24. Нормальное распределение. Функция Лапласа.

Нормальное распределение – такое распределение непрерывной случайной величины, для * ф-ция распределения имеет следующий вид: f(x) = -(x-m)²/2k². M[x] = = a. D[x] = k2 = σ2. 1) XєR, 2) для любого х f(x)>0, 3) х→±∞ limf(x)=0, y=0 горизонтальная асимптота. Функция Лапласа – интеграл вероятности Ф(х) = . Функция Лапласа – нечетная.

25. Вероятность попадания в заданный интервал. Правило трех сигм.

Вероятность попадания в заданный интервал нормальной случайной величины определяется по формуле P(x1<X<x2) = = Φ() – Φ(). Если случайная величина распределена нормально, то абсолютная величина её отклонения от МО не превосходит 3 СКО.

26. Система двух случайных величин. Функция распределения двух случайных величин. Их взаимосвязь. Вероятность попадания в полуполосу и прямоугольник.

Законом распределения двумерной случайной величины называется множество пар чисел x и y и соответствующих им вероятностей P(x;y). Интегральная ф-ция распределения двумерной случайной величины – F(x;y), определяемая для любой пары чисел x и y вероятность того события, что А=(X<x; Y<y). Свойства: 1) 0≤F(x;y)≤1, 2) F(x;y) есть неубывающая ф-ция по каждому аргументу, x1<x2, F(x1;y)<F(x2;y); y1<y2, F(x;y1)<F(x;y2), 3) F(x; -∞)=0, F(+∞; x)=1; F(-∞;-∞)=0, F(+∞; +∞)=1; 4) F(x; +∞)=F1(x), F(+∞;y)=F2(y). Вероятность попадания в полуполосу: P(x1<X<x2; Y<y1)=F(x2;y1)-F(x1;y1), вероятность попадания в прямоугольник: P(x1<X<x2; y1<Y<y2)=F(x2;y2)-F(x1;y2)-(F(x2;y1)-F(x1;y1)).

27. Двумерная плотность распределения и её свойства. Геометрическая интерпретация.

Плотность распределения двумерной случайной величины есть предел отношения вероятности попадания [∆x;∆y] при ∆S→0. f(x,y)=F"xy(x,y). Свойства: 1) двумерная плотность распределения есть неотрицательная величина. 2) объём под ф-цией равен 1 = 1. Геометрический смысл: поверхность, * называют поверхностью распределения.

28. Законы распределения случайных величин, входящих в систему.

F(x,+∞)=F1(x). F1(x)=. F1’ = f1(x) = ; F2’= f2(x) = . Плотность распределения одной из составляющих равна несобственному интегралу с бесконечными пределами от плотности совместного распределения, причем переменное интегрирование соответствует другой составляющей.

29. Числовые характеристики системы двух случайных величин. Корреляционный момент.

Начальным моментом порядка k,s системы x,y – МО произведения хk и ys. νks = M[xk*ys] Центральным моментом порядка k,s системы x,y – МО произведения k-той и s-той отклонений. μks = M[(x-M[x])k*(y-M[y])s]. μ02 = D[y], μ20 = D[x]. Центральным моментом μ11 величин x,y называется корреляционным моментом или ковариацией. μ11=M[(x-M[x])*(y-M[y])] = μxy. μ11= . Корреляционный момент характеризует связь между величинами Х и У. Абсолютная величина корреляционного момента двух случайных величин Х и У не превосходит средней геометрической их дисперсии. Отношение корреляционного момента μxy к произведению СКО Х и У называется коэффициентом корреляции. Коэф. корреляции характеризует линейную зависимость между величинами.

30. Математическая статистика. Основные понятия и задачи.

Математическая статистика – наука, * занимается разработкой методов регистрации, описания и анализа экспериментальных данных, получаемых в результате наблюдений случайных явлений. Задачи: 1) сбор и обработка опытных данных. 2) разработка методов анализа стат. данных в зависимости от целей исследования. 3) проверка правдоподобия гипотез. 4) определение неизвестных параметров распределения. Генеральная сов-ть – полное поле элементарных событий. Выборочная сов-ть – сов-ть случайно отобранных объектов. Объём сов-ти – число элементов этой сов-ти.

31. Виды выборок. Способы отбора выборок.

Повторной называется выборка, при * каждый элемент возвращается в ген. сов-ть. Бесповторной называется выборка, при * каждый выбранный элемент не возвращается в ген. сов-ть. Репрезентативной/представительской называется выборка, правильно отражающая основные отношения в ген. сов-ти. Способы: 1) ген. сов-ть не дробится на части – случайный бесповторный/повторный отбор. 2) ген. сов-ть дробится на части – характерный/механический/серийный отбор.

32. Статистическое распределение выборки. Эмпирическая функция распределения.

xi – варианта, ni – частота наблюдаемой i-той варианты. Последовательность вариант – вариативный ряд. Статистическое распределение – перечень вариант и соответствующих им частот или относительных частот. Эмпирическая функция распределения – функция F*(x) определяющая для каждого значения х относительную частоту события Х<х, nx/n, где nx число вариант меньшее х, n –объем выборки. Свойства: 1) [0;1]; 2) неубывающая функция от х; 3) F*(min)=0; 4) F*(max)=1.

33. Полигон и гистограмма.

Полигон частот – ломанная линия, отрезки * соединяют между собой точки с координатами (xi;ni) Гистограмма – ступенчатая фигура, состоящая из прямоугольников (h – высота, ni/h – плотность частот). Гистограммой относительных частот называют ступенчатую фигуру, состоящую из прямоугольников, где h – основание, vi/h – высота.

34. Законы больших чисел. Неравенства Маркова и Чебышева.

Физическое содержание ЗБЧ – устойчивость средних, среднее значение не является случайной величиной, её можно спрогнозировать. Ряд теорем, в каждом из *, для тех или иных условий, устанавливают приближение средних в постоянном значении. ЗБЧ устанавливает соответствие между случайным и неслучайным. Если случайная величина х принимает только неотрицательные значения и имеет МО, то для любого А>0, справедливо P(x>A)≤M[x]/A. Док-во: M[x]=x1p1+…+xnpn. M[x]>xipi+…+xnpn. M[x]>A(pi+…+pn). A*P(X>A)<M[x], P(X>A)=M[x]/A. Для любой случайной величины, имеющей МО и дисперсию, справедливо следующее неравенство P(|x-M[x]|>ε) = D[x]/ε2.

35. Теоремы Чебышева и Бернулли. Центральная предельная теорема.

Если дисперсии независимых случайных величин не превышают некоторого постоянного числа С, то для любого ε>0справедливо n→∞ lim(|| < ε) = 1. Если в каждом из n независимых испытаний вероятность p появления события А постоянна, то как угодно близка к единицы вероятность того, что отклонение относительной частоты от вероятности p по абсолютной величине будет сколько угодно малым, если число испытаний достаточно велико. n→∞ lim P(ǀm/n-pǀ<ε)=1. Распределение суммы независимых случайных величин приближается к нормальному закону распределения при неограниченном увеличении n, если выполняются следующие условия: 1) все величины имеют конечные M[x] и D[x]; 2) не одна из величин по своему значению резко не отличается от всех остальных величин. (не оказывает заметного влияния на всю сумму).

36. Статистические оценки параметров распределения. Требования к статистическим оценкам.

Закон известен - надо определить параметры. Закон неизвестен – мало данных, сделать заключение. Оценки необходимого параметра – результаты значений характеристик по выборке. Статистической оценкой неизвестного параметра случайной величины будем называть ф-цию от наблюдаемых значений случайной величины. Состоятельная стат. оценка стремиться к оцениваемому параметру при n→∞. Несмещенная стат. оценка – если МО выборки равно оцениваемому параметру при любом объёме выборки. Эффективная стат. оценка – если при заданном объёме, выборка имеет мин. дисперсию.

37. Точечные оценки МО и дисперсии генеральной совокупности.

Точечная оценка – оценка, * определяется одним параметром. МО: хв=(x1+x2+…+xn)/n M(хв)=(1/n)*[M(x1)+…+M(xn)]=(n*a)/n=a; M(x)=a; (n*a)/a=a. Дисперсия: M[Dв]=*D; σ2= *Dв; M[σ2]=M[*Dв]= *M[Dв]=**D; σ2=*= .

38. Методы определения точечных оценок.

Метод Пирсона (метод моментов): приравнивание эмпирических и теоретических моментов. Оценки полученные по этому методу являются состоятельными. ν1*=ν1(x1;…;xn); ν1т=; = ν1(x1;…;xn); θ*= θ*(x1;…;xn). Метод Фишера (метод максимального правдоподобия): ф-ция правдоподобия выражает плотность вероятности появления результатов выборки. X=x1, p(x1;θ); L(x1;…;xn;θ)=p(x1;θ)*…*p(xn;θ); . Метод наименьших квадратов: один из методов регрессионного анализа для оценки неизвестных величин по результатам измерений, содержащим случайные ошибки. Метод наименьших квадратов применяется также для приближённого представления заданной функции другими (более простыми) функциями и часто оказывается полезным при обработке наблюдений.

39. Интервальные оценки.

Интервальная оценка – оценка, * определяется началом и концом интервала. θ→θ*; |θ;θ*|<ε. Надежность оценки (доверительная вероятность) θ по θ* - вероятность γ, с * осуществляется неравенство |θ;θ*|<ε. Интервал Iγ=(θ*-ε;θ*+ε) – доверительный интервал неизвестного параметра θ с заданной надежностью γ. Доверительный интервал покрывает параметр генеральной сов-ти с оценкой γ. Интервальные оценки позволяют установить точность и надежность оценок.

40. Доверительный интервал для оценки МО нормального распределения ген. сов-ти.

При известной дисперсии: ; ; ; ; Iγ=. При неизвестной дисперсии: .

41. Доверительный интервал для оценки дисперсии нормального распределения.

P(ǀσ-sǀ<δ)=γ; s-δ<σ<s+δ; s(1-δ/s)<σ<s(1+ δ/s). Обозначим δ/s = q (величина q находится по таблице и зависит от надежности и объема выборки), тогда доверительный интервал для оценки генерального СКО имеет вид: s(1-q)<σ<s(1+q). Так как s >0, то если q >1 , левая граница интервала равна 0. 0<σ<s(1+q). Так как дисперсия есть квадрат СКО, то доверительный интервал, покрывающий генеральную дисперсию с заданной надежностью, имеет вид: s2(1-q)2<D< s2(1+q)2, если q<1; 0< D< s2(1+q)2, если q>1.

42. Статистические гипотезы. Основные определения. Ошибки первого и второго рода.

Любое предположение о виде или параметрах неизвестного закона распределения – стат. гипотеза. Простая гипотеза – когда в гипотезе присутствует одно суждение; сложная – конечное или бесконечное количество гипотез. Основная (нулевая) гипотеза – H0. Конкурирующая (альтернативная) гипотеза – H1. Ошибка первого рода: отвергли правильную гипотезу. Ошибка второго рода: приняли неверную гипотезу. Вероятность допустить ошибку первого рода – уровень значимости α. Вероятность допустить ошибку второго рода – β.

43. Статистический критерий проверки нулевой гипотезы. Алгоритм.

1. Выбирается критерий проверки гипотезы, * зависит от условий рассматриваемой задачи. Критерий – случайная величина, закон распределения * известен: нормальное, Стьюдента, Фишера, χ². 2. Задаемся определенным уровнем значимости α. 3. По соответствующим таблицам определяем критические точки, рисуем критические области. 4. По выборке определяем расчетное значение выбранной случайной величины. 5. Если посчитанное значение случайной величины попадает в критическую область – отвергаем H0.

44. Проверка гипотезы о числовом значении МО нормального распределения.

При известной дисперсии: H0: M[x]=a; a=a0. k==N(0;1); α – выбрана. 1) H1: a=a1>a0. P(x>xпкр)=α; P(0<x< xпкр)+P(x>xпкр)=0,5. 2) H1: a=a1<a0. P(x<xлкр)=α; xлкр= - xпкр. 3) H1: a=a1≠a0. P(0<x<xпкр)=0,5-α/2; xлкр= - xпкр. При неизвестной дисперсии: H0: a=a1=a0; a=a0. k==t(n-1;α). 1) H1: a>a0. P(x>xпкр)=α; P(ǀxǀ< xпкр)=1-2α. 2) H1: a<a0. xлкр= - xпкр. 3) H1: a≠a0. P(ǀxǀ< xпкр)=1-α.

45. Проверка гипотезы о числовом значении дисперсии нормального распределения.

H0: σ220; k=2(n-1;α); 1) H1: σ220. P(x>xпкр)=α; P(x<xпкр)+ P(x>xпкр)=1; P(x<xпкр)=1-α. 2) H1: σ220. P(x<xлкр)=α. 3) H1: σ2≠σ20. P(x<xпкр)=1-α/2; P(x<xлкр)= α/2.

46. Проверка гипотеза о равенстве дисперсии двух нормальных распределений.

H0: σ2x2y. k=s2x/s2y, (s2x >s2y) = f(nx-1, ny-1,α). P(k>xпкр)=α; P(k>xпкр)+ P(k<xлкр)=1; P(k<xлкр)=1-α.

47. Проверка гипотезы о равенстве средних двух нормальных распределений.

таблица Лапласа.

48. Проверка гипотезы о модели закона распределения.

Критерий согласия Пирсона – сравнение эмпирических и теоретических частот. В методе Пирсона в каждом интервале частота попаданий не должна быть меньше или равно 5б если это не выполняется, то соседние интервалы соединяют. Алгоритм: 1) Строим интервальный ряд. 2) По построенной выборке находим оценки параметров рассматриваемого распределения. (нормальный закон: a*=, σ2=s; равномерный: a*= b*= показательный: λ*=1/) 3) Вычисляем теоретическую вероятность попадания в i-тый интервал. 4) Вычисляем теоретические частоты. n'i=p*ni 5) Находим наблюденное значение случайной величины χ². χ2набл=. 6) χ2крит=(L-m-2;α) – L-число интервалов, m-число параметров. 7) Если χ2набл2крит , то гипотезу принимаем.