- •Сводный курс. Часть 4. Теория вероятностей и математическая статистика
- •19.2.Вероятность случайного события
- •19.3.Основные вероятностные схемы (теоремы)
- •19.3.3. Полная вероятность и формула Бейеса
- •19.3.4.Схема повторных независимых испытаний
- •19.3.4.1.Формулы Бернулли и Пуассона
- •19.3.4.2.Локальная и интегральная теоремы Лапласа
- •20.2. Законы распределения случайных величин.
- •20.3.Числовые характеристики случайных величин.
- •20.4.Типовые распределения.
- •20.4.3.Многомерные случайные величины.
- •20..5.Законы больших чисел.
- •21.2. Обработка статистических данных
- •21.3. Статистические распределения
- •21.7. Точечные оценки числовых характеристик генеральной
- •21.9. Проверка статистических гипотез
- •21.10. Типовые примеры оценки гипотез.
- •21.10.2. Проверка гипотезы о равенстве двух математических ожиданий двух нормально распределенных СВ, дисперсии которых известны для больших независимых выборок .(стр213).
- •21.10.3.Проверка гипотезы о равенстве двух математических ожиданий двух нормально распределенных СВ, дисперсии которых НЕизвестны и равны. (стр215).
- •21.10.4. Проверка гипотезы о равенстве среднего выборочного и гипотетического генерального среднего для нормально распределенной СВ.
27
Пусть U и V независимые распределенные по закону хи-квадрат со
U
степенями свободы k1 и k2 . Тогда СВ F= Vk1 называется F-распределением
k2
(иногда распределением Фишера-Снедекора) со степенями свободы k1 и k2 . при этом плотность вероятности определяется так
|
|
0 |
|
для х≤0, |
||||
|
|
|
k1−2 |
|
||||
|
|
|
|
|
|
|
|
|
|
x |
2 |
|
|
|
|
||
C |
|
|
|
|
для х>0 |
|||
|
|
|
k1+k 2 |
|||||
f(x)= |
0 |
|
|
|
|
, где С0= |
||
|
|
|
|
|
|
|||
|
|
(k +k x) 2 |
|
|
||||
|
|
1 |
2 |
|
|
|
|
k 1+2k 2 k 1k21 k 2k22
Г(k21 )Г(k22 )
20.4.3.Многомерные случайные величины.
Если мы имеем две СВ Х и У, то можно сказать, что мы имеем систему двух случайных величин. Этот факт обозначают так (Х,У).
Законом распределения для дискретной (Х,У) принято называть таблицу с двумя входами
|
|
|
Х |
|
|
|
|
|
|
|
хn |
У |
х1 |
х2 |
х3 |
… |
|
у1 |
р( х1 ; у1) |
р( х2 ; у1) |
р( х3 ; у1) |
… |
р( хn; у1) |
у2 |
р( х1 ; у2) |
р( х2 ; у2) |
р( х3 ; у2) |
… |
р( хn ; у2) |
. |
. |
. |
. |
… |
. |
уm |
р( х1 ; уm) |
р( х2 ; уm) |
р( х2 ; уm) |
|
р( хn ; уm) |
m,n
Контроль таблицы ∑pij =1. На основании этого распределения можно
i =1, j =1
получить законы распределения для составляющих .
Можно использовать и функцию двумерного распределения , которая определяется так F(x,y)=Р(Х<x,Y<y).
Геометрически это означает попадание случайной точки внутрь сектора расположенного ниже прямой х=х и левее прямой у=у , которые пересекаются в точке (х,у) (внимание! Не на границу).
Свойства F(x,у) обычны:
0 ≤ F(x,у) ≤1, что вытекает из определения ее как вероятности; F(x,у) неубывающая по обеим координатам (см. одномерную F(x)); F(- ∞;y)= F(x;- ∞)= F(- ∞;- ∞)=0;
F( ∞; ∞)=1;
27
28
F(x; ∞)=F1(x);
F( ∞;y)=F2(y);
Вероятность попадания случайной точки в полосу {x1 ≤ X ≤x2 ; Y<y} равна приращению F на промежутке x1 ≤ X ≤x2 ,т.е. Р(x1 ≤ X ≤x2) =F(x2)-F(x1).
Вероятность попадания случайной точки в прямоугольник
{x1 ≤ X ≤x2 ; у1 ≤ У ≤у2 } можно вычислить из Р(x1 ≤ X ≤x2 ; у1 ≤ У ≤у2)= =F(x2 у2)-F(x1 у2)- F(x2 у1)+ F(x1 у1). (можно несколько видоизменить)
Если двумерная СВ (система случайных величин) непрерывна по обоим аргументам и имеет двумерную функцию распределения F(x,y), то двумерная
плотность вероятности определяется как f(x,у)= д2 F .
дxду
Из такого определения вытекают свойства двумерной плотности и ее связь с двумерной функцией распределения.
Имеем : f(x,у) – неотрицательая функция (как производная от неубывающей);
|
|
x |
y |
F(x,y)= |
∫ |
∫ f(t,z)dσ - несобственный, сходящийся; |
|
|
|
−∞ |
−∞ |
∫∞ |
∫∞ |
f(х,у)dσ=1. |
|
−∞ |
−∞ |
|
|
Вероятность попадания двумерной СВ в область D равна ∫∫ f(х,у)dσ.
D
20..5.Законы больших чисел.
Изучение вероятностных закономерностей приводит к некоторым выводам. Один из них : располагая небольшой по объму информацией относительно одной СВ вряд ли можно сказать что-либо о сумме достаточно большого числа таких величин. Однако в действительности при некоторых достаточно широких условиях суммарное поведение большого числа случайных величин почти закономерно. Такие условия, при выполнении которых ма получаем почти закон, важны на практике. Эти условия собраны в пакеттеорем, которые в комплекте носят название законы больших чисел.
Неравенство Чебышова.(Теорема) Пусть задано распределение
|
xi |
|
x1 |
|
|
x2 |
|
|
|
. . . |
|
|
xn |
|
|
|
|
|||||||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
pi |
|
p1 |
|
|
p2 |
|
|
|
|
|
|
|
|
pn |
|
|
|
|
|||||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
модуля |
разности Х-М(Х) |
||||
|
Тогда |
|
оценкой |
|
|
для |
величины |
|
отклония |
|||||||||||||||
служит неравенство Р( |
|
X − M ( X ) |
|
<ε ) ≥1- |
D( X ) |
. |
|
|
|
|||||||||||||||
|
|
|
||||||||||||||||||||||
|
|
|
|
|
|
|||||||||||||||||||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
ε2 |
|
||||||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
||||||||
Комментарий. Отметим, что все оценки в теории вероятностей проводят |
||||||||||||||||||||||||
на основе вычисления некоторых вероятностей. И в данном случае – тоже. |
||||||||||||||||||||||||
Док. Т.к. события |
|
X − M ( X ) |
|
<ε |
|
и |
|
X − M ( X ) |
|
≥ε |
противоположны, то |
|||||||||||||
|
|
|
|
|
||||||||||||||||||||
сумма их |
вероятностей |
|
равна |
1. |
Поэтому либо выяснить, чему равна |
28
29
Р( X − M ( X ) <ε ) или выяснить чему равна Р( X − M ( X ) ≥ε ), а затем найти
первую вероятность.
Воспользуемся формулой для вычисления дисперсии. Имеем D(X)=( x1- -M(X))2p1 +( x2-M(X))2p2 + ( x3-M(X))2p3 + … В этой сумме все слагаемые неотрицательны. Отбросим из этой суммы те слагаемые, для которых X − M ( X ) <ε . Вследствие этого сумма уменьшится. Пусть мы отбросили k
слагаемых (при этом порядок несущественен и можно считать, что мы отбросили первые слагаемые из суммы). Значит для оставшихся слагаемых
n
X − M ( X ) ≥ε и мы получаем D(X) ≥ ∑( xj+1-M(X))2pj+1. Но ведь каждое
j=k
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
n |
слагаемое в сумме не меньше ε. Значит, мы получаем D(X) ≥ ε2 ∑ pj+1. Но |
||||||||||||||||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
j=k |
полученная сумма есть как раз вероятность Р( |
|
X − M ( X ) |
|
≥ε ), откуда имеем |
||||||||||||
|
|
|||||||||||||||
D(X) |
≥ ε2 |
Р( |
|
X − M ( X ) |
|
≥ε ). Откуда Р( |
|
X − M ( X ) |
|
≥ε ) ≤ |
D( X ) |
. После чего |
||||
|
|
|
|
|||||||||||||
|
|
|
|
ε2 |
||||||||||||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
получаем оценку для вероятности противоположного события – утверждение
теоремы Р( X − M ( X ) <ε )
≥
1- D( X ) .
ε2
Комментарий. Доказанная оценка слишком груба для практических приложений. Так при достаточно большой дисперсии не исключено, что
D(X)> |
ε2. Тогда получаем 1- |
D( X ) |
<0, т.е.что Р( |
|
X − M ( X ) |
|
<ε ) больше |
|
|
|
|||||||
ε2 |
||||||||
|
|
|
|
|
|
|
некоторого отрицательного числа. Так мы это и так знаем из свойств вероятности.
Теорема Чебышева. Если Xi попарно независимы и D(Xi) равномерно ограничены (не превышают некоторого С), то при любом ε>0 вероятность
выполнения неравенства |
|
∑Xi − |
∑M(Xi ) |
|
<ε как угодно близка к 1, если n |
|
|
||||
|
|
n |
n |
|
|
достаточно велико.
Комментарий. Иными словами, экспериментальное среднее практически не отличается от теоретического математического ожидания.
Док. Введем в работу среднее случайных величин X− = ∑nX i . Найдем
− |
− |
∑X i |
|
∑M ( X i |
) |
|
− |
М( X ). Имеем |
М( X )=М( |
n |
)= |
n |
|
. Теперь применим к |
X |
29
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
30 |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
≥ |
|
− |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
− |
|
|
− |
|
|
D( X ) |
|
||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
||
неравенство |
|
Чебышева. Имеем |
|
|
Р( |
X |
− M ( |
X |
) |
<ε ) 1- |
|
|
. Но |
|||||||||
|
|
|
ε |
2 |
||||||||||||||||||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|||
|
|
D( X ) |
|
|
|
|
|
C |
|
|
|
|
|
|
|
|
|
|
|
|
||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|||
|
− |
∑ n 2 |
|
|
|
|
|
− |
|
|
C |
|
|
|
|
|
|
|
|
|
|
|
D( X )= |
i |
и потому D( X ) ≤ ∑n 2 |
= |
. Теперь имеем |
|
|
|
|
||||||||||||||
|
n |
|
|
|
|
|||||||||||||||||
|
∑Xi |
∑M(Xi ) |
|
<ε) |
|
C |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
||||||
Р( |
n |
− |
n |
|
|
≥ 1- |
и при |
n |
→ ∞ |
мы |
получаем |
утверждение |
||||||||||
|
|
nε2 |
||||||||||||||||||||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
теоремы.
На практике М(Х) почти всегда одинаково и тогда к случайным величинам применима эта теорема в виде : среднее арифметическое большого числа независимых случайных величин утрачивает характер случайной величины.
Это значит следует провести n измерений искомой величины и найти их среднее; оно будет давать истинное значение, если :
-измерения попарно независимы (прибор настроен и не перенастраивается в процесс всей работы); -если измеряют одно и то же (нет систематических ошибок – тогда М(Х) –
истинное значение искомого);
-если D(Xi)=C (известна точность прибора и потому измерения разбросаны недалеко).
Внимание! Точность измерения при этом повысить невозможно, т.е. ответ имеет погрешность прибора.
Теорема Бернулли. Пусть реализована схема повторных независимых испытаний. Если в каждом испытании р=const , то отклонение относительной частоты от вероятности в опыте по модулю как угодно мало с вероятностью,
близкой к 1, т.е. lim P( |
m |
− p |
<ε )=1. |
|
|
|
|
|
n |
|
|
|
|
||||
n → ∞ |
|
|
∑X i |
|
|
|
||
Док. Нам известно, что в такой серии D(Xi) ≤0,25. При этом |
= |
m |
. И |
|||||
|
||||||||
n |
n |
|||||||
|
|
|
|
|
|
мы получаем один из случаев теоремы Чебышева.
Комментарий. Нельзя считать, что увеличивая число опытов, мы получаем требуемое.Речь идет только о вероятном приближении (по
вероятности) mn к р.
21. Элементы математической статистики 21.1.Основные понятия
Задачей статистики является :
указание способов сбора и группировки (если данных много) статистических данных (сведений);
разработка методов анализа этих данных в зависимости от целей исследователя ;
построение научно обоснованных выводов и рекомендаций.
30
31
Наибольший вклад в развитие статистики внесли: Чебышев П.Л.; Марков А.А.; Ляпунов А.А.; К.Гаусс; А.Кетле; Ф.Гальтон; К.Пирсон и позднее Романовский В.И.; Слуцкий Е.Е.; Колмогоров А.Н.; Смирнов Н.В.; Р.Фишер; Э.Пирсон; Ю.Нейман; А.Вальд; Стьюдент.
Выборка – совокупность случайно отобранных объектов для изучения некоторого количественного или качественного признака.
Если в качестве исследуемой величины берется признак Х, то выборка – это набор случайно отобранных значений случайной величины Х : {xi}, i=1,…,n.
Генеральная (генеральная совокупность) – совокупность , из которой сделана выборка.
Комментарий. Генеральная – это существительное (а не прилагательное). Если исследуется признак Х , то он и есть генеральная.
Объем – количество объектов (выборки или генеральной).
В математической статистике принято правило (договор) : даже если генеральная конечна все равно она считается бесконечной по объему. (когда обследуется продукция завода, то она не бесконечна по объему; то же касается аттестации студентов некоторого вуза).
К выборке предъявляют основное требование – выборка должна быть репрезентативна – правильно представлять генеральную. Для репрезентативности выборки требуется, чтобы:
отбор был случайным; все объекты генеральной должны иметь одинаковую вероятность попасть
в выборку. Иначе говоря, объем выборки должен иметь возможность стремиться к бесконечности (хотя бы гипотетически) и все xi должны быть независимыми.
Для обеспечения этих требований разрабатывают способы отбора (сбора) информации. Способы отбора информации могут быть:
без расчленения генеральной (когда объемы генеральной и выборки малы);
при этом отбор может быть простым случайным повторным (когда объекты выбирают из генеральной по одному, нумеруют крточки обследования, карточки перемешивают, берут карточки по одной и анализируют, затем возвращают в генеральную и процесс повторяют);
простой бесповторный (все то же самое, но после анализа карточки в генеральную не возвращают);
с расчленением генеральной (при большой генеральной и малой выборке);
типический (когда из типической части генеральной (от станка, выпускающие однотипные детали с другими станками) отбирают определенное число изделий, составляющих определенную часть генеральной; делают это при заметных колебаниях исследуемого признака в типических частях генеральной);
механической (устанавливают объем выборки, делят генеральную на такое же число частей , из кадой части берут объект для исследования; гарантий репрезентативности мало);
31