Добавил:
Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:

Методы оптимизации эксперимента в химической технологии

..pdf
Скачиваний:
40
Добавлен:
15.11.2022
Размер:
13.27 Mб
Скачать

4.

Если оба аргумента равны + °°, то функция

распределения

системы равна единице:

 

 

Р ( + « , + оо) = 1.

(1.78)

Зная функцию распределения системы F(x, у),

можно

определить

вероятность попадания случайной точки (X, Y) в

прямоугольник R,

ограниченный абсциссами а

и р и

ординатами

у и

8 (рис.

11):

P[(Xt Y)<zR] = F$ ,

b)-F(a,

*)-F(P, t)

+ F(a9 7).

(1.79)

Если функция F(x, у) непрерывна и дифференцируема, то можно определить плотность распределения системы /(Ос, у) как вторую смешанную производную функции F(x, у):

/(* , У) =

d*F(xt у)

( 1. 80)

дхду

 

 

Вероятность попадания случайной точки (X, Y) в произвольную область D выражается интегралом от элементов вероятности /Ос, у)

по области D:

РЦХ,

Y ) c D] =

у) Ах&у.

(181)

 

(D )

 

В соответствии с (1.81) вероятность попадания в прямоугольник R

определяется следующим образом:

 

 

 

Р

5

 

Р[(Х,

У ) с К ] = |

J/(*. у)йхАу.

(1.82)

* 7

Плотность распределения системы есть функция неотрицательная:

/(*, у )> 0.

(1.83)

Двойной интеграл в бесконечных пределах от плотности распределе­ ния системы равен единице

оо

оо

 

f

j /(*, y)dxdy= 1

(1.84)

и представляет собой вероятность попадания на всю координатную плоскость, т. е. вероятность достоверного события. Функция распреде­ ления F(x, у) выражается через плотность распределения следующим образом:

 

*

у

(1.85)

F ( x , y ) =

j

^ f(x, y)Axdy.

— 0 0 — ОО

Зная плотность распределения системы, мо­ жно получить плотности распределения каж­ дой из величин:

X оо

F (x) = F(x, 00)= j j f(x, y)dxdy,

(1.86)

откуда, дифференцируя по х, имеем

 

 

 

_

dFa (х)

 

Г е

(1.87)

1^

= ~d ~

=

j

f(x' ^ йу>

 

аналогично

 

 

 

 

 

/* (У)

=

=

j f ( * , У) dx.

(1.88)

 

 

 

—оо

 

 

Формулы (1.77) и (1.86)—(1.88)

дают

возможность

по известному

ткону распределения системы найти законы распределения отдель­ ных величин, входящих в систему.

В то же время для того чтобы исчерпывающим образом охаракте­ ризовать систему, получить ее закон распределения, недостаточно знать распределение каждой из величин, нужно еще знать зависимость между величинами, входящими в систему. Наиболее полно эта

зависимость

может быть

охарактеризована с помощью так называе­

мых условных законов распределения.

 

 

Условным законом распределения величины Y, входящей в

систему (X,

Y),

называется

ее закон

распределения,

вычисленный

при условии, что другая случайная величина X приняла определен­

ное значение х

Условная

функция

распределения

обозначается

F(y \х), условная плотность распределения f(y \х).

системы двух

Можно

показать, что

плотность

распределения

величин равна плотности распределения одной из величин, входящих в систему, умноженной на условную плотность распределения другой величины, вычисленную при условии, что первая величина приняла тданное значение:

f(x,

У) = fi(x)f(y\x)

(1.89)

ИЛИ

У) = Ы</) / ( х \у ) .

 

/(*,

(1.90)

Формулы (1.89) и (1.90) часто называют теоремой умножения законов распределения. Из (1.89) и (1.90) следует:

f(u\x) -

f(X’ y)

(1.91)

r

h(y)

(1.92)

'

или, с учетом (1.87) и (1.88).

f(x, у)

 

. . . .

(1.93)

f (У \х) —

 

ОО

 

 

(х>У) dy

 

—ОО

 

f(!/l*)-

(1.94)

 

y)dx

 

— ОО

7. Стохастическая связь. Между случайными величинами обычно существует такая связь, при которой с изменением одной величины меняется распределение другой. Такая связь называется стохастической.

В отличие от функциональной зависимости, при которой, зная значение одной из величин, можно точно указать значение другой, при стохастической связи с изменением величины X величина У лишь имеет тенденцию также изменяться (например, возрастать или убывать при возрастании X). Эта тенденция соблюдается лишь в сред­ нем, в общих чертах и в каждом отдельном случае от нее возмож­ ны отступления.

Стохастическая связь может быть более или менее тесной, по мере увеличения тесноты стохастической зависимости она все более приближается к функциональной. Таким образом, функциональную зависимость можно рассматривать как предельный случай наиболее тесной стохастической связи. Другой крайний случай —полная неза­ висимость случайных величин.

Для непрерывных случайных величин условие независимости может быть записано в виде

f(y\x) = h(y)

(1.95)

ИЛИ

 

f { х\у)= f x( х).

(1.96)

Для независимых непрерывных случайных величин теорема умноже­ ния законов распределения принимает вид

f ( x, y) = fi(x)f2(y),

(1.97)

т. е. плотность распределения системы независимых случайных вели­ чин равна произведению плотностей распределения отдельных вели­ чин, входящих в систему. Условие (1.97) может рассматриваться как необходимое и достаточное условие независимости случайных величин.

Изложенный выше критерий суждения о независимости или зависимости случайных величин исходит изпредположения, что закон распределения системы нам известен. На практике обычно закон распределения системы не известен. Задача выявления й оценки тесноты стохастической связи решается с помощью некоторых показателей, оценивающих те иди иные стороны стохастической связи. Из них важнейшим в силу простоты его определения по экспериментальным данным является коэффициент корреляции.

Если две случайные величины Y и X независимы, то дисперсия суммы этих величин равна сумме дисперсий (см. 1.50):

D(X+Y) = D(X) + D(Y).

Если данное равенство не соблюдается, это признак зависимости. Из определения дисперсии (1.24) и свойств математического ожида­ ния (1.45) следует:

D { X + Y ) = M IX + Y —M(X + Y)]*=M [Х-М(Х)]2+

 

+ 2М {[X - М (X)] IY —M (Y)} + М [Y - М (У)]2 =

 

= D(X) + 2M{ [ X - M (X)] [Y - М (УЩ+ D (К).

(1.98)

23

Зависимость между X и У существует, если

 

 

 

 

М [(X- тх) (Y - ту)] ф 0.

 

(1.99)

Величина

(1.99) называется корреляционным моментом, моментом

связи

или

ковариацией cov {ХУ}, (covxy) случайных

величин

X и У.

Из

(1.99) видно, что ковариация характеризует

не только

зависи­

мость величин, но и их рассеяние. Действительно, если одна из величин X, У мало отклоняется от своего математического ожидания, то ковариация будет мала, какой бы тесной зависимостью ни были связаны величины X и У. Поэтому для характеристики связи между

случайными величинами X

и У в чистом виде переходят от covx^

к безразмерному показателю:

 

COVjcy

М [ ( Х - т х) (Y ту)]

гху

(1.100)

ау

 

где аЛ. , ау—средние квадратичные отклонения величин X и У. Этот показатель называется коэффициентом корреляции величин X и У.

Для независимых случайных величин коэффициент корреляции равен нулю, однако обратное утверждение несправедливо —коэффициент корреляции (и ковариация) могут быть равны нулю, а случайные величины зависимы: связь, не сказываясь на дисперсиях, проявляет­ ся в моментах более высокого порядка. В общем случае справедливо более слабое утверждение: случайные величины, для которых кова­ риация (а значит, и коэффициент корреляции) равна нулю, называют­ ся некоррелированными.

Таким образом, независимые случайные величины всегда являются некоррелированными, однако из некоррелированности величин в общем случае еще не следует их независимость. И только в случае нормального распределения равенство нулю коэффициента корреляции однозначно свидетельствует об отсутствии связи между случайными величинами.

Плотность нормального распределения двух случайных величин выражается формулой

/(*. У)=----------*

е*р|

 

1

Г тх)2

 

2(1 —г*) I

02

2п ах Qy V I — г2

I

 

 

 

 

 

тх) (у — ту)

 

(y-fflyf-n

t

 

 

 

+

al

Jt

( I . 101)

 

 

 

 

 

 

 

 

 

 

°х °у

где г—коэффициент корреляции. Предположим, что случайные величи­ ны X, У, подчиняющиеся закону распределения (I. 101), некоррелированы, т. е. г= 0. Получим

 

ехр

тх)г

/Пу)2-!

f (*. У)=

 

ч J

2те ах оу

 

 

 

 

= М * ) Ы у).

(1.102)

т. е. плотность распределения системы равна произведению плотностей распределения отдельных величин, входящих в систему, а это значит, что случайные величины X и Y независимы. Таким образом, для системы случайных величин, подчиненных нормальному закону, равенство нулю коэффициента корреляции свидетельствует не только о некоррелирован­ ности, но и о независимости случайных величин, поэтому важность роли коэффициента корреляции как показателя связи в этом случае существен­ но возрастает.

Отметим следующие свойства коэффициента корреляции. Коэффи­ циент корреляции не меняется от прибавления к X и Y каких-либо неслучайных слагаемых, от умножения Л" и У на положительные числа. Если одну из величин, не меняя другой, умножить на -1, то на -1 умножится и коэффициент корреляции.

Поэтому коэффициент корреляции гху не изменится, если от исход­

ных случайных величин перейти к нормированным:

 

Х0=

X тх

, Y0=

Y — ту

, гХо уо = гху.

 

-

 

 

ах

 

Qy

 

 

На основании (1.98) и (1.100) имеем

 

 

 

D (X +

У) = D (X) + D (Y)+2ryx V D (X)D (У) .

(1.103)

Аналогично для дисперсии разности двух случайных величин можно

записать

 

D(X Y) = D (X) + D (У) — 2ryx V D (X) D (У) .

(1.104)

Выражения (1.101) и (1.102) для нормированных случайных величин с учетом того, что D(XQ)=D(YQ) = 1, примут вид

D (Х0+ Y 0) = 2 + 2ryx, D ( X - Y 0) = 2 - 2ryx.

(1.105)

Так как дисперсия —величина неотрицательная, имеем

 

2 + 2гух >0;

2 — 2гух > 0;

 

гух ^

1 >

гух ^ “Ь П

 

и окончательно

 

 

 

-

1< г ух< + 1.

(1.106)

Крайние значения коэффициента

корреляции гух =±1 соответствуют

линейной функциональной зависимости

 

 

У= Ь0 +

 

причем знак коэффициента

соответствует знаку коэффициента корре­

ляции.

 

 

 

В общем случае, когда величины X и Yсвязаны произвольной стохасти­ ческой зависимостью, коэффициент корреляции может иметь значение в пределах - 1 < rxy < 1.

При rxy> 0 существует положительная корреляционная связь между величинами X и У, при гху< 0 —отрицательная.

Коэффициент корреляции характеризует не всякую зависимость, а только линейную. Линейная вероятностная зависимость случайных вели­ чин заключается в том, что при возрастании одной случайной величины другая имеет тенденцию возрастать (или убывать) по линейному закону. Коэффициент корреляции характеризует степень тесноты линейной зависимости.

Определим условные законы распределения f(y | х) и f(x \ у) по фор­ мулам (1.91) и (1.92) для системы случайных величин, подчиняющихся нормальному закону распределения (1.101):

/(</!*) =

/(*!</) =

Из (1.107) имеем

[

[

1

У —ту

2(1- г 2)

СУ

1

Х — ГПх

2 (1 —г2)

 

(1.108)

 

ехр

1

°у

/0/1*) =

2(1 - г2) о2

Шу—г — (х — тх)

 

(1.109)

Очевидно, (1.109) есть выражение для плотности нормального закона распределения с математическим ожиданием

°у

(1.110)

ти\х = ту + г — (х— тх)

и средним квадратичным отклонением

 

в1/\х = °у (!-'■ * )•

(МП)

Величина ту{х называется условным математическим ожиданием величи­ ны У при данном X. Линейная зависимость (1.110) называется регрессией У на X. Аналогично, прямая

тх \ у = mx + r — ( y — т у)

(1.112)

°У

 

есть регрессия X на У. Линии регрессии совпадают только при наличии линейной функциональной зависимости У от X. При независимых X и

Улинии регрессии параллельны координатным осям.

Вэтой главе были рассмотрены основные характеристики случайных величин. Полная информация о случайных величинах содержится в законах распределения. Рассмотрены равномерный и нормальный законы распределения вероятностей.

Во многих прикладных задачах нет необходимости использовать законы распределения. Вместо них можно воспользоваться числовыми

характеристиками случайной величины, в сжатой форме выражающими наиболее существенные особенности распределения. В теории вероят­ ностей и математической статистике применяется большое количество числовых характеристик. В настоящей главе введены понятия о момен­ тах распределения, отмечены свойства наиболее часто применяемых моментов —математического ожидания и дисперсии.

Введено понятие о стохастической связи между случайными величи­ нами и коэффициенте корреляции, характеризующем тесноту линейной зависимости между случайными величинами. Исследование зависимости между случайными величинами —важная прикладная задача.

Упражнения

1.Сто стержней из нового полимера подвергаются выборочному контролю на прочность. Условием непригодности всей партии является наличие хотя бы одного недостаточно прочного стержня среди пяти проверяемых. Какова вероятность для данной партии быть непринятой, если она содержит 5% недостаточно прочных стержней?

2.Случайная величина X подчинена закону распределения, плотность вероятности которого имеет вид

ах при 0 < х < 1

 

0 при х <

0 и х >

1

Определить математическое ожидание, дисперсию,

среднее

квадратичное отклонение

и асимметрию распределения.

 

 

3. Функция распределения непрерывной случайной величины X задана выражением

 

О при

х <

0

F (х) =

ах12 при 0

< х < 1

.

1 при

X>

1

Найти: а) коэффициент а\ б) плотность распределения f(x)\ в) вероятность попадания

величины X в интервал (0,25; 0,5).

случайная величина, подчиненная

нормальному

закону

4. Ошибки

измерения есть

с параметрами

т = 1,2; сг -= 0,8.

Найти вероятность попадания этой

величины в

интер­

вал (-1,6; +1,6).

5. В результате проверки точности работы прибора установлено, что 80% ошибок не выходит за пределы ±5°С. Определить среднюю квадратичную ошибку прибора, если известно, что систематических ошибок прибор не имеет, а случайные ошибки распре­ делены по нормальному закону.

Г Л А В А II

ОПРЕДЕЛЕНИЕ ПАРАМЕТРОВ ФУНКЦИИ РАСПРЕДЕЛЕНИЯ

1. Генеральная совокупность и случайная выборка. На практике ис­ следователь всегда располагает лишь ограниченным числом значений случайной величины, представляющим собой некоторую выборку из генеральной совокупности. Под генеральной совокупностью понимают все допустимые значения случайной величины. При анализе какой-либо технологической случайной величины, непрерывно изменяющейся по времени (например, температура, давление и т. п.), под наблюдаемыми значениями случайной величины понимают значения технологического

параметра в дискретные моменты времени, разделенные таким интер­ валом, при котором соседние значения можно считать полученными из независимых опытов.

Выборка называется репрезентативной (представительной), если она дает достаточное представление об особенностях генеральной совокуп­ ности. Если о генеральной совокупности ничего не известно, единствен­ ной гарантией репрезентативности может служить случайный отбор. В очень многих исследованиях случайный отбор или случайное пере­ мешивание (рандомизация) данных необходима. Для имитации случай­ ного отбора можно использовать таблицы случайных чисел. Допустим, необходимо отобрать 10 элементов из совокупности, содержащей 100 элементов. Для этого надо пронумеровать элементы генеральной сово­ купности от 00 до 99. Затем, начиная с любого места таблиц, выписать две последние цифры десяти идущих подряд чисел. Например, начиная с первого числа получились номера

82

49

18

48

09

50

17

10

37

51

(если числа повторяются, их надо опустить). Полученные номера показывают, какие элементы надо отобрать. Выбранную последователь­ ность изменять нельзя. Нарушение случайности, как правило, ведет к искажению результатов. Аналогично отбору производится рандомиза­ ция элементов. При этом нужно выписывать случайные номера до тех пор, пока они не охватят все заданные элементы.

Из случайного характера выборок немедленно вытекает, что любое суждение о генеральной совокупности по выборке само случайно. Пред­ положим, что в результате эксперимента получена выборка хр х2, ..., х„ значений случайной величины X. Пусть х некоторая точка числовой оси х; обозначим через пх число выборочных значений, расположенных левее х на той же оси. Отношение пх/п представляет собой частоту полученных в выборке значений случайной величины X, меньших х. Эта частота есть функция от х. Обозначим ее Fn(x)\

Fn(x) = nx /n. (II. 1)

Функция распределения Fn(x), получаемая по выборке, называется

эмпирической или выборочной функцией распределения (в отличие от рас­ пределения генеральной совокупности, или теоретического распределе­ ния). Для каждой выборки эмпирическая функция распределения будет своей, но все эмпирические функции распределения одной и той же случайной величины будут иметь нечто общее, что является информа­ цией о функции распределения этой случайной величины.

Можно доказать (теорема

Гливенко), что с вероятностью 1 при

п —►00 максимальная разность

между функциями распределения слу­

чайных величин F„(x) и F(x) стремится к 0:

 

 

P(sup \ F ( x ) - F n (x)\

0)= 1,

(II.2)

П—+оо

— oo<JT<!-l-oo

 

 

Практически это означает, что при достаточно большой выборке функцию распределения генеральной совокупности приближенно можно заменять выборочной функцией распределения. Пусть х1< х2< х3< ... < х„—упоря­

Рис. 12. Выборочная функция распреде­ ления

доченная по ^едичине выборка из генеральной совокупности случайной величины Z, или вариационный ряд. Все элементы выборки имеют одинаковую вероятность, равную 1 /п. Поэтому, согласно определению функции F„(x)^ имеем:

Fn {х) = О

k

при

х < хх\

 

Fпix) =

при

Xk ^ х ^ %k+1» ^ == 112| • • •» л 1»

(11.3)

'

п

 

 

 

Fn{x) = 1

 

при х > х п.

 

На рис. 12 приведен график функции Fn(x). Все элементы выборки оказываются точками разрыва этой функции. В точке разрыва х = хк функция Fn(\) скачком переходит от значения (А:—1)/л (в интервале хк_х<*х<хк) к значению к /л, удерживая последнее значение в следую­

щем интервале.

При обработке выборок больших объемов используют метод «сгруп­ пированных данных»: выборка объема п преобразуется в статистический ряд. Для этого весь диапазон изменения случайной величины в выборке Xmir+ xmax делится на к равных интервалов. Число интервалов можно выбирать по полуэмпирической формуле

6=1 + 3,2 lgп

(ц,4)

с округлением до ближайшего целого. Длина интервала h равна

 

к — (*max *mln)/6.

(И . 5)

Число элементов выборки, попавших в /-й интервал, обозначим через т. Величина, равная

p*=m/ nt

(П.б)

определяет относительную частоту попадания

случайной величины в

/-й интервал. Все точки, попавшие в /'-й интервал, относят к его сере­ дине хг*:

х\ = (*/-! + */)/2. (II. 7)

Статистический ряд записывается в виде табл. 1.

График, построенный по данным табл. 1 (рис. 13), называется гисто­ граммой эмпирического или выборочного распределения. На рис. 14 приве­ ден график функции Fn(x), построенный по сгруппированным данным.

При обработке наблюдений обычно не удается получить эмпи­ рическую функцию распределения. Даже простейший анализ условий проведения опытов позволяет с достаточной степенью уверенности определять тип неизвестной функ­ ции распределения. Окончательное уточнение неизвестной функции рас­ пределения сводится к определению некоторых числовых параметров рас­ пределения. По выборке могут быть

рассчитаны выборочные статистические характеристики (выборочное среднее, дисперсия ит. д.), которые являются оценками соответствующих генеральных параметров. Оценки, получаемые по выборке, сами являют­ ся величинами случайными, но нужная точность при этом достигается при меньших л, чем при непосредственном использовании теоремы

Рис. 13. Гистограмма распределе-

Рис. 14. График функции Fn (x),

по-

ния

строенный по сгруппированным

дан­

 

ным

 

Гливенко. К оценкам обычно предъявляются требования состоятель­ ности и несмещенности. Оценка a*(xv х2, ..., х„) называется состоятель­ ной, если с увеличением объема выборки п она стремится (по вероят­ ности) к оцениваемому параметру а. Эмпирические (выборочные) момен­ ты являются состоятельными оценками теоретических моментов. Оценка называется несмещенной, если ее математическое ожидание при любом объеме выборки равно оцениваемому параметру М[д*J = а. Еще одной важной характеристикой оценок генеральных параметров является их эффективность, которая для различных несмещенных оценок одного и того же параметра при фиксированном объеме выборок обратно пропорциональна дисперсиям этих оценок.

2. Метод максимального правдоподобия. Для получения оценок используют различные методы. Широко применяется метод максималь-

Т а б л и ц а 1. Статистический ряд

И н т е р в а л

Д л и н а и н т ер в а л а

1

C ^m in»

* 0

2

(* 1 ,

Х2)

/

 

 

к

(х к -

* т а х )

С е р е д и н а и н т ер в а л а

X*

х?

* V • •

Ч и с л о т о ч е к

О т н о с и т е л ь н а я

в и н т е р в а л е

ч а с т о т а

П1

р *

П2

Р 2

" /

Р?

п к

Рк

I

п

1