Добавил:
Upload Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:
Теория_вер_мат_статистика4a.pdf
Скачиваний:
15
Добавлен:
29.02.2016
Размер:
741.77 Кб
Скачать

27

Пусть U и V независимые распределенные по закону хи-квадрат со

U

степенями свободы k1 и k2 . Тогда СВ F= Vk1 называется F-распределением

k2

(иногда распределением Фишера-Снедекора) со степенями свободы k1 и k2 . при этом плотность вероятности определяется так

 

 

0

 

для х0,

 

 

 

k12

 

 

 

 

 

 

 

 

 

 

 

x

2

 

 

 

 

C

 

 

 

 

для х>0

 

 

 

k1+k 2

f(x)=

0

 

 

 

 

, где С0=

 

 

 

 

 

 

 

 

(k +k x) 2

 

 

 

 

1

2

 

 

 

 

k 1+2k 2 k 1k21 k 2k22

Г(k21 )Г(k22 )

20.4.3.Многомерные случайные величины.

Если мы имеем две СВ Х и У, то можно сказать, что мы имеем систему двух случайных величин. Этот факт обозначают так (Х,У).

Законом распределения для дискретной (Х,У) принято называть таблицу с двумя входами

 

 

 

Х

 

 

 

 

 

 

 

хn

У

х1

х2

х3

у1

р( х1 ; у1)

р( х2 ; у1)

р( х3 ; у1)

р( хn; у1)

у2

р( х1 ; у2)

р( х2 ; у2)

р( х3 ; у2)

р( хn ; у2)

.

.

.

.

.

уm

р( х1 ; уm)

р( х2 ; уm)

р( х2 ; уm)

 

р( хn ; уm)

m,n

Контроль таблицы pij =1. На основании этого распределения можно

i =1, j =1

получить законы распределения для составляющих .

Можно использовать и функцию двумерного распределения , которая определяется так F(x,y)=Р(Х<x,Y<y).

Геометрически это означает попадание случайной точки внутрь сектора расположенного ниже прямой х=х и левее прямой у=у , которые пересекаются в точке (х,у) (внимание! Не на границу).

Свойства F(x,у) обычны:

0 F(x,у) 1, что вытекает из определения ее как вероятности; F(x,у) неубывающая по обеим координатам (см. одномерную F(x)); F(- ;y)= F(x;- )= F(- ;- )=0;

F( ; )=1;

27

28

F(x; )=F1(x);

F( ;y)=F2(y);

Вероятность попадания случайной точки в полосу {x1 X x2 ; Y<y} равна приращению F на промежутке x1 X x2 ,т.е. Р(x1 X x2) =F(x2)-F(x1).

Вероятность попадания случайной точки в прямоугольник

{x1 X x2 ; у1 У у2 } можно вычислить из Р(x1 X x2 ; у1 У у2)= =F(x2 у2)-F(x1 у2)- F(x2 у1)+ F(x1 у1). (можно несколько видоизменить)

Если двумерная СВ (система случайных величин) непрерывна по обоим аргументам и имеет двумерную функцию распределения F(x,y), то двумерная

плотность вероятности определяется как f(x,у)= д2 F .

дxду

Из такого определения вытекают свойства двумерной плотности и ее связь с двумерной функцией распределения.

Имеем : f(x,у) – неотрицательая функция (как производная от неубывающей);

 

 

x

y

F(x,y)=

f(t,z)dσ - несобственный, сходящийся;

 

 

−∞

−∞

f(х,у)dσ=1.

−∞

−∞

 

 

Вероятность попадания двумерной СВ в область D равна ∫∫ f(х,у)dσ.

D

20..5.Законы больших чисел.

Изучение вероятностных закономерностей приводит к некоторым выводам. Один из них : располагая небольшой по объму информацией относительно одной СВ вряд ли можно сказать что-либо о сумме достаточно большого числа таких величин. Однако в действительности при некоторых достаточно широких условиях суммарное поведение большого числа случайных величин почти закономерно. Такие условия, при выполнении которых ма получаем почти закон, важны на практике. Эти условия собраны в пакеттеорем, которые в комплекте носят название законы больших чисел.

Неравенство Чебышова.(Теорема) Пусть задано распределение

 

xi

 

x1

 

 

x2

 

 

 

. . .

 

 

xn

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

pi

 

p1

 

 

p2

 

 

 

 

 

 

 

 

pn

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

модуля

разности Х-М(Х)

 

Тогда

 

оценкой

 

 

для

величины

 

отклония

служит неравенство Р(

 

X M ( X )

 

<ε ) 1-

D( X )

.

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

ε2

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

Комментарий. Отметим, что все оценки в теории вероятностей проводят

на основе вычисления некоторых вероятностей. И в данном случае – тоже.

Док. Т.к. события

 

X M ( X )

 

<ε

 

и

 

X M ( X )

 

ε

противоположны, то

 

 

 

 

 

сумма их

вероятностей

 

равна

1.

Поэтому либо выяснить, чему равна

28

29

Р( X M ( X ) <ε ) или выяснить чему равна Р( X M ( X ) ε ), а затем найти

первую вероятность.

Воспользуемся формулой для вычисления дисперсии. Имеем D(X)=( x1- -M(X))2p1 +( x2-M(X))2p2 + ( x3-M(X))2p3 + … В этой сумме все слагаемые неотрицательны. Отбросим из этой суммы те слагаемые, для которых X M ( X ) <ε . Вследствие этого сумма уменьшится. Пусть мы отбросили k

слагаемых (при этом порядок несущественен и можно считать, что мы отбросили первые слагаемые из суммы). Значит для оставшихся слагаемых

n

X M ( X ) ε и мы получаем D(X) ( xj+1-M(X))2pj+1. Но ведь каждое

j=k

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

n

слагаемое в сумме не меньше ε. Значит, мы получаем D(X) ε2 pj+1. Но

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

j=k

полученная сумма есть как раз вероятность Р(

 

X M ( X )

 

ε ), откуда имеем

 

 

D(X)

ε2

Р(

 

X M ( X )

 

ε ). Откуда Р(

 

X M ( X )

 

ε )

D( X )

. После чего

 

 

 

 

 

 

 

 

ε2

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

получаем оценку для вероятности противоположного события – утверждение

теоремы Р( X M ( X ) <ε )

1- D( X ) .

ε2

Комментарий. Доказанная оценка слишком груба для практических приложений. Так при достаточно большой дисперсии не исключено, что

D(X)>

ε2. Тогда получаем 1-

D( X )

<0, т.е.что Р(

 

X M ( X )

 

<ε ) больше

 

 

ε2

 

 

 

 

 

 

 

некоторого отрицательного числа. Так мы это и так знаем из свойств вероятности.

Теорема Чебышева. Если Xi попарно независимы и D(Xi) равномерно ограничены (не превышают некоторого С), то при любом ε>0 вероятность

выполнения неравенства

 

Xi

M(Xi )

 

<ε как угодно близка к 1, если n

 

 

 

 

n

n

 

 

достаточно велико.

Комментарий. Иными словами, экспериментальное среднее практически не отличается от теоретического математического ожидания.

Док. Введем в работу среднее случайных величин X= nX i . Найдем

X i

 

M ( X i

)

 

М( X ). Имеем

М( X )=М(

n

)=

n

 

. Теперь применим к

X

29

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

30

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

D( X )

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

неравенство

 

Чебышева. Имеем

 

 

Р(

X

M (

X

)

<ε ) 1-

 

 

. Но

 

 

 

ε

2

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

D( X )

 

 

 

 

 

C

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

n 2

 

 

 

 

 

 

 

C

 

 

 

 

 

 

 

 

 

 

 

D( X )=

i

и потому D( X ) n 2

=

. Теперь имеем

 

 

 

 

 

n

 

 

 

 

 

Xi

M(Xi )

 

<ε)

 

C

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

Р(

n

n

 

 

1-

и при

n

→ ∞

мы

получаем

утверждение

 

 

nε2

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

теоремы.

На практике М(Х) почти всегда одинаково и тогда к случайным величинам применима эта теорема в виде : среднее арифметическое большого числа независимых случайных величин утрачивает характер случайной величины.

Это значит следует провести n измерений искомой величины и найти их среднее; оно будет давать истинное значение, если :

-измерения попарно независимы (прибор настроен и не перенастраивается в процесс всей работы); -если измеряют одно и то же (нет систематических ошибок – тогда М(Х) –

истинное значение искомого);

-если D(Xi)=C (известна точность прибора и потому измерения разбросаны недалеко).

Внимание! Точность измерения при этом повысить невозможно, т.е. ответ имеет погрешность прибора.

Теорема Бернулли. Пусть реализована схема повторных независимых испытаний. Если в каждом испытании р=const , то отклонение относительной частоты от вероятности в опыте по модулю как угодно мало с вероятностью,

близкой к 1, т.е. lim P(

m

p

<ε )=1.

 

 

 

 

n

 

 

 

 

n → ∞

 

 

X i

 

 

 

Док. Нам известно, что в такой серии D(Xi) 0,25. При этом

=

m

. И

 

n

n

 

 

 

 

 

 

мы получаем один из случаев теоремы Чебышева.

Комментарий. Нельзя считать, что увеличивая число опытов, мы получаем требуемое.Речь идет только о вероятном приближении (по

вероятности) mn к р.

21. Элементы математической статистики 21.1.Основные понятия

Задачей статистики является :

указание способов сбора и группировки (если данных много) статистических данных (сведений);

разработка методов анализа этих данных в зависимости от целей исследователя ;

построение научно обоснованных выводов и рекомендаций.

30

31

Наибольший вклад в развитие статистики внесли: Чебышев П.Л.; Марков А.А.; Ляпунов А.А.; К.Гаусс; А.Кетле; Ф.Гальтон; К.Пирсон и позднее Романовский В.И.; Слуцкий Е.Е.; Колмогоров А.Н.; Смирнов Н.В.; Р.Фишер; Э.Пирсон; Ю.Нейман; А.Вальд; Стьюдент.

Выборка – совокупность случайно отобранных объектов для изучения некоторого количественного или качественного признака.

Если в качестве исследуемой величины берется признак Х, то выборка – это набор случайно отобранных значений случайной величины Х : {xi}, i=1,…,n.

Генеральная (генеральная совокупность) – совокупность , из которой сделана выборка.

Комментарий. Генеральная – это существительное (а не прилагательное). Если исследуется признак Х , то он и есть генеральная.

Объем – количество объектов (выборки или генеральной).

В математической статистике принято правило (договор) : даже если генеральная конечна все равно она считается бесконечной по объему. (когда обследуется продукция завода, то она не бесконечна по объему; то же касается аттестации студентов некоторого вуза).

К выборке предъявляют основное требование – выборка должна быть репрезентативна – правильно представлять генеральную. Для репрезентативности выборки требуется, чтобы:

отбор был случайным; все объекты генеральной должны иметь одинаковую вероятность попасть

в выборку. Иначе говоря, объем выборки должен иметь возможность стремиться к бесконечности (хотя бы гипотетически) и все xi должны быть независимыми.

Для обеспечения этих требований разрабатывают способы отбора (сбора) информации. Способы отбора информации могут быть:

без расчленения генеральной (когда объемы генеральной и выборки малы);

при этом отбор может быть простым случайным повторным (когда объекты выбирают из генеральной по одному, нумеруют крточки обследования, карточки перемешивают, берут карточки по одной и анализируют, затем возвращают в генеральную и процесс повторяют);

простой бесповторный (все то же самое, но после анализа карточки в генеральную не возвращают);

с расчленением генеральной (при большой генеральной и малой выборке);

типический (когда из типической части генеральной (от станка, выпускающие однотипные детали с другими станками) отбирают определенное число изделий, составляющих определенную часть генеральной; делают это при заметных колебаниях исследуемого признака в типических частях генеральной);

механической (устанавливают объем выборки, делят генеральную на такое же число частей , из кадой части берут объект для исследования; гарантий репрезентативности мало);

31