Добавил:
Upload Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:

Мет.моделирования и прогнозирования эк-ки

.PDF
Скачиваний:
57
Добавлен:
10.05.2015
Размер:
2.61 Mб
Скачать

ГЛАВА 4. ВЕРОЯТНОСТНО-СТАТИСТИЧЕСКИЕ МОДЕЛИ

4.1. МОДЕЛИ СЛУЧАЙНЫХ СОБЫТИЙ

Теория вероятностей есть математическая наука, изучающая закономерности в случайных явлениях.

Случайное явление – это такое явление, которое при неоднократном воспроизведении одного и того же опыта протекает каждый раз по иному.

Случайное событие – это всякий факт, который в результате опыта может произойти или не произойти. Для количественного сравнения событий между собой по степени их возможности используют понятие вероятности события.

Вероятность P( A) случайного события A - это численная мера

степени объективной возможности наступления этого события. Достоверным называется событие, которое в результате опыта

непременно должно произойти. Здесь P( A) 1. Невозможным называется событие, которое в результате опыта не может произойти: P( A) 0 . Вероятность любого события A заключается между нулем и единицей: P( A) 0,1 .

Несколько событий в данном опыте образуют полную группу, если в результате опыта должно появиться хотя бы одно из них. Несколько событий называются несовместными в данном опыте, если никакие два из них не могут появиться вместе. Несколько событий называются в данном опыте равновозможными, если объективная возможность их появления одинакова.

Если события в данном опыте несовместны, равновозможны и образуют полную группу, то они называются случаями или шансами. При этом вероятность события A равна отношению числа m случаев, благоприятствующих появлению этого события, к общему числу случаев n:

P( A) m . n

При решении геометрических задач вероятность того или иного события определяется отношением геометрического размера (длины, площади, объема, угла и т.п.), благоприятствующего появлению рассматриваемого события, к общему размеру.

Непосредственный расчет вероятности по указанной выше формуле в случае симметрии возможных исходов часто включает элементы комбинаторики.

92

Глава 4

Размещением из n элементов по m называется упорядоченная выборка элементов. Если среди n элементов все различные, то число размещений из n элементов по m определяется соотношением:

Am

n(n 1)(n 2)...(n m 1)

n!

m!Cm

P(m)Cm.

 

n

 

(n m)!

n

n

 

 

 

 

Размещениями с повторениями называют упорядоченные по-

следовательности, составленные из n элементов по m, где некоторые из элементов (или все) могут оказаться одинаковыми. Число размещений с повторениями из n элементов по m определяется соотношением

Anm nm .

При m = n размещения называются перестановками, т.е. различные перестановки отличаются только порядком элементов. Число перестановок из n элементов определяется формулой

P(n) Ann n!

Сочетанием из n элементов по m называется выборка m эле-

ментов без учета их порядка, т.е. различные выборки отличаются самими элементами.

Если среди n элементов все различные, то число сочетаний оп-

 

 

Cnm

n!

 

ределяется

соотношением

 

. Отметим,

что

 

 

 

 

m!(n m)!

 

Cn0 1; Cnm Cnn m .

Последним свойством удобно пользоваться, когда m n . 2

Количество различных способов разбиения n элементов на m групп с числом ki элементов в i -й группе (перестановки с повторениями) определяется по формуле

 

 

n!

 

 

 

m

Pn(k1,k2, ...,km )

 

 

 

 

 

,

( ki n).

k !k

2

!...k

m

!

1

 

 

 

i 1

Пусть n -элементное множество A является суммой множеств A1,A2,...,Ak , число элементов которых равно соответственно

k

n1,n2,...,nk , ( ni n). И пусть B m-элементное подмножество мно-

i 1

жества A , содержащее m1 элементов из A1 , m2 элементов из A2 , ...,

k

mk элементов из Ak ( mi m). Число способов, которыми можно

i 1

Вероятностно-статистические модели

93

выбрать такое множество В из А (множества неупорядоченные), равно

Сm1Cm2 ...Cmk .

n1 n2 nk

Суммой нескольких событий называется событие, состоящее в появлении хотя бы одного из этих событий. Произведением нескольких событий называется событие, состоящее в совместном появлении всех этих событий.

Событие A называется независимым от события В, если ве-

роятность события A не зависит от того, произошло событие В или нет. Событие A называется зависимым от события B, если вероятность события A меняется в зависимости от того, произошло событие В

или нет.

Если событие A не зависит от события В, то и событие В не зависит от события A.

Вероятность события A, вычисленная при условии, что имело место другое событие B, называется условной вероятностью события A и обозначается P( AB).

Условие независимости события A от события В можно записать в виде P( AB) P(A), а условие зависимости соотношением

P( AB) P( A) .

Событие A называется противоположным событию A, если оно состоит в непоявлении события A.

Вероятность суммы любого числа совместных событий определяется зависимостью

 

n

 

 

n

P( A )

 

P A A

 

 

 

P A A

A ... ( 1)n 1P A A ...A

,

P

 

A

 

 

j

 

 

i

 

i

i

 

i

j k

1 2

n

 

i 1

 

 

i 1

 

i j

 

 

 

i j k

 

 

 

 

где

суммы

распространяются

на

различные

сочетания индексов

i ; i, j ; i, j,k

и т.д.

 

 

 

 

 

 

 

 

 

 

В частном случае, вероятность суммы двух совместных событий P( A B) P( A) P(B) P( AB), где AB – произведение событий A и

B .

В общем случае для несовместных событий имеем соотноше-

ние

n

 

n

 

 

P( Ai ).

P Ai

i 1

 

i 1

94

Глава 4

Вероятность произведения двух событий равна произведению вероятности одного из них на условную вероятность другого, вычисленную при условии, что первое имело место: P( AB) P( A)P(B A).

Для двух независимых событий имеем P( AB) P( A)P(B).

Вероятность произведения нескольких событий равна произведению вероятностей этих событий, причем вероятность каждого следующего по порядку вычисляется при условии, что все предыдущие имели место:

P( A1A2...An ) P( A1 )P( A2 A1 )P( A3 A1A2 )...P( An A1A2A3...An 1 ) .

Вероятность произведения независимых событий равна произ-

ведению вероятностей этих событий:

n

 

n

P A

P(A ).

 

 

i

i

 

i 1

 

i 1

Если об обстановке (условиях) опыта можно сделать n исключающих друг друга предположений (гипотез) H1,H2,H3,...,Hn и если событие A может появиться только с одной из этих гипотез, то P( A)

вычисляется по формуле полной вероятности

 

 

n

 

 

 

P( A) P Hi P A| Hi ,

 

 

i 1

 

 

где

P(Hi ) – вероятность гипотезы Hi ;

 

 

 

P( A|Hi ) – условная вероятность события A при гипотезе Hi .

 

Если до опыта вероятности гипотез были P(Hi ), а в результате

опыта появилось событие A, то с учетом этого факта условные вероятно-

сти гипотез вычисляются по формуле Байеса:

 

 

 

 

P Hi P A|Hi

 

 

P(Hi | A)

 

 

, i 1,2,...,n.

 

n

 

P H j P A|H j

j 1

Формула Байеса дает возможность "пересмотреть" вероятности гипотез с учетом полученного результата опыта. Если после опыта, заканчивающегося появлением события A, производится еще один опыт, в котором может появиться или не появиться событие B , то условная вероятность этого последнего события вычисляется по формуле полной вероятности, в которую подставлены не прежние вероятности гипотез

P(Hi ), а новые P(Hi | A):

Опыты называются независимыми, если вероятность исхода (результата) каждого опыта не зависит от того, какие исходы имели другие опыты. Независимые опыты могут проводиться как в одинаковых условиях, так и в различных. В первом случае вероятность появления

Вероятностно-статистические модели

95

какого-то события A во всех опытах одна и та же, во втором случае она меняется от опыта к опыту.

Если производится n независимых опытов в одинаковых условиях, причем в каждом из них с вероятностью P может появиться собы-

тие A, то вероятность

Pm,n

того, что событие A произойдет в этих n

опытах ровно m раз, выражается формулой Бернулли:

P

 

Cm pmqn m;

m

 

 

q 1 p.

 

0,n;

m,n

 

n

 

 

 

 

Это биномиальное распределение вероятностей.

Вероятность хотя бы одного появления события A в n независимых опытах в одинаковых условиях равна

 

 

R

1 qn .

 

 

 

1,n

 

 

Если производится n независимых опытов в различных услови-

ях, причем вероятность события А в i ом опыте равна

Pi , то вероят-

ность Pm,n

того, что событие

A появится в этих n опытах ровно m раз,

равна коэффициенту при Zm в разложении по степеням

Z производя-

щей

(вычислительной,

 

вспомогательной)

функции

n

( z ) ( piz qi ), qi 1 pi .

i1

Вероятность хотя бы одного появления события A в n независи-

n

мых опытах в различных условиях равна R1,n 1 qi .

 

 

 

 

i 1

 

n

 

 

 

Для любых условий опыта

Pm ,n 1 .

 

m 0

 

 

 

Вероятность Rk,n того, что в n опытах событие А появится не

менее k раз, выражается формулой:

R

 

n

k 1

P

1 P .

 

k,n

m,n

m,n

Наивероятнейшее число m0

 

m k

m 0

наступлений события А в серии

из n опытов удовлетворяет неравенствам np q m0 np р. 3десь p – вероятность наступления события А в одном опыте.

Число m0 называется наивероятнейшим числом наступления события А в n испытаниях, если P(m0 ) P(mi ) при m0 mi .

Если np p не является целым числом, то двойное неравенство определяет лишь одно наивероятнейшее значение m0 . Если же np p

целое число, то имеются два наивероятнейших значения: np q, np р .

96

Глава 4

Отношение числа опытов, в которых появилось событие А, к общему числу произведенных опытов, называется частотой события А

или его статистической вероятностью P ( A) m . n

4.2. ОПИСАНИЕ СЛУЧАЙНЫХ ВЕЛИЧИН

Случайной величиной (СВ) называется величина, которая в результате опыта может принять то или иное значение, неизвестно заранее, какое именно.

Дискретной (прерывной) называется СВ, принимающая отдельные друг от друга значения, которые можно пронумеровать. Возможные значения непрерывных СВ не могут быть заранее перечислены и непрерывно заполняют некоторый промежуток. СВ полностью описывается своим законом распределения.

Законом распределения СВ называется всякое соотношение, устанавливающее связь между возможными значениями СВ и соответствующими им вероятностями. Закон распределения может иметь три формы.

1. Рядом распределения дискретной СВ Х называется таблица, где перечислены возможные (различные) значения этой СВ x1, x2,..., xn

n

ссоответствующими им вероятностями P1, P2, ...,Pn . При этом Pi 1.

i1

Графическое изображение ряда распределения называется мно-

гоугольником (полигоном) распределения.

2. Функцией распределения СВ Х называется функция F( x) ,

выражающая вероятность того, что Х примет значение, меньшее, чем какое-то заданное конкретное значение x : F( x) P( X x).

Функцию распределения F( x) иногда называют также инте-

гральной функцией распределения или интегральным законом распределения. Функция распределения – универсальная характеристика СВ. Она существует для всех СВ: как дискретных, так и непрерывных.

Свойства функции распределения.

1) Функция F( x) есть неубывающая функция своего аргумента,

т.е. при x2 x1 имеет место соотношение F( x2 ) F( x1 ).

2)F( ) 0; F( ) 1.

3)Для дискретных СВ F( x) есть разрывная ступенчатая функция, непрерывная cлева.

Вероятностно-статистические модели

97

4) Если случайная величина X непрерывна, то P(X = ) = 0 и

можем записать P( < X < ) = P( X < ) = P( < X ) = P( X ) = F( ) – F( ).

Величина xp , определяемая равенством F( xp ) р (где р зада-

ется), называется квантилем порядка р. Квантиль x0.5 порядка 0.5 на-

зывается медианой, квантили порядка 0.1, 0.2, ..., 0.9 называются децилями, а квантили порядка 0.25, 0.5, 0.75 называются квартилями.

Если функция распределения F( x) везде непрерывна и имеет

производную, то СВ называется непрерывной в узком смысле слова

или просто непрерывной. Если функция F( x) на некоторых участках

непрерывна, а в отдельных точках имеет разрывы, СВ называется сме-

шанной.

3. Функция плотности распределения есть предел отношения вероятности попадания СВ в интервал ( x, x x) к ширине этого интервала при ее стремлении к нулю:

f( x) lim

P( x X x x)

lim

F( x x) F( x)

 

 

 

x

x

F ( x).

x 0

Δx 0

 

Функцию f( x) называют также плотностью вероятностей, кри-

вой плотности распределения. Плотность распределения существует только для непрерывных СВ и имеет следующие основные свойства:

 

 

x

f( x) 0;

f( x)dx 1;

F(x) P( X x) f( x)dx ;

 

 

 

 

 

 

P( X ) f ( x)dx.

Каждая форма закона распределения (ряд распределения, функция распределения, плотность распределения) представляет собой некоторую функцию и полностью описывает СВ с вероятностной точки зрения. Часто на практике требуется существенные сведения относительно СВ выразить в сжатой форме с помощью числовых (точечных) характеристик.

Основными числовыми характеристиками СВ являются сле-

дующие.

1. Математическое ожидание СВ Х это ее среднее значение,

которое вычисляется по формулам (соответственно, для дискретной и непрерывной СВ):

n

mx M[ X ] xiPi xf( x)dx.

i 1

98

Глава 4

2.Мода СВ – ее наиболее вероятное значение для дискретной величины, а для непрерывной величины это то значение, в котором плотность распределения вероятностей максимальна.

3.Медиана случайной величины Х такое ее значение Me , для

которого P( X Me) P( X Me) 0.5, т.е. одинаково вероятно, ока-

жется ли СВ меньше или больше Me . Геометрически медиана – это абсцисса точки, в которой ее площадь, ограниченная функцией плотности распределения, делится пополам.

4. Дисперсией СВ называется математическое ожидание квадрата соответствующей центрированной величины (центрированной СВ называется разность между СВ Х и ее математическим ожиданием):

Dx D[ X ] M[( X mx )2

n

 

] (xi mx )2 Pi

(x mx )2 f( x)dx .

 

i 1

 

5.Средним квадратическим отклонением СВ Х называется положительный корень из дисперсии x Dx .

6.Начальным моментом k – го порядка величины Х называет-

ся математическое ожидание k -й степени этой СВ. Для дискретной и непрерывной СВ этот момент вычисляется, соответственно, по формулам:

k k [ X ] M[( Х )k

n

 

] xikPi

xk f( x)dx .

 

i 1

 

7. Центральным моментом к-го порядка СВ Х называется ма-

тематическое ожидание к-й степени центрированной СВ Х:

0

] M[( X mx )k

n

k k [ X ] M[( X )k

] ( xi mx )k Pi

 

 

i 1

( x mx )k f( x)dx.

Математическое ожидание СВ Х есть ее первый начальный момент, а дисперсия – второй центральный.

Второй и третий центральные моменты выражаются через начальные моменты зависимостями:

2[ X ] 2[ X ] mx2; 3[ X ] 3[ X ] 3mx2 2[ X ] 2mx2 .

8. Третий центральный момент служит для характеристики асимметрии (или скошенности) распределения. Если распределение симметрично относительно математического ожидания (или в механической интерпретации, масса распределена симметрично относительно центра

Вероятностно-статистические модели

99

тяжести), то все моменты нечетного порядка (если они существуют) равны нулю. Коэффициент асимметрии (или просто асимметрия) опре-

деляется зависимостью As 3 / 3.

9. Четвертый центральный момент служит для характеристики "крутости", т.е. островершинности или плосковершинности распределения. Это свойство распределения описываются с помощью так называе-

мого эксцесса:

Ex 4 / 4 3.

Для нормального распределения Ex 0. Кривые, более остро-

вершинные по сравнению с нормальным законом, обладают положительным эксцессом; кривые более плосковершинные – отрицательным эксцессом.

Основные предельные положения теории вероятностей сво-

дятся к следующему.

Первое неравенство Чебышева: если СВ X неотрицательна и

имеет математическое ожидание, то P( X ) mx .

Второе неравенство Чебышева: если D[ X ] , то вероят-

ность того, что отклонение случайной величины X от ее математического ожидания по абсолютной величине меньше положительного числа

, не меньше, чем

1

D[ X ]

, т.е.

 

 

 

 

 

 

 

 

2

 

 

 

 

 

 

 

 

 

 

 

 

 

D X

 

 

 

 

 

 

 

 

P

 

X M X

 

1

;

P

 

X mx

 

 

Dx

.

 

 

 

 

 

 

2

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

2

Неравенства Чебышева дают только верхнюю границу вероятности рассматриваемого отклонения, выше этой границы вероятность не может быть ни при каком законе распределения.

Наиболее часто используется вторая форма неравенства. Теорема Бернулли утверждает устойчивость частоты при по-

стоянных условиях опыта, т.е. при неограниченном увеличении числа опытов n частота события A сходится к его вероятности

 

 

 

m

 

 

 

 

p(1 p)

 

P

 

 

p

 

 

1

,

 

n 2

 

 

 

n

 

 

 

 

 

 

 

 

где – сколь угодно малое положительное число, m – количество наступлений события А.

100

Глава 4

Все формы центральной предельной теоремы (предельных за-

конов распределения) посвящены установлению условий, при которых возникает нормальный закон распределения. Одна из самых простых форм относится к случаю одинаково распределенных слагаемых.

Теорема. Если X1,X2,...,Xn – независимые случайные величины, имеющие один и тот же закон распределения с математическим ожиданием m и диcперсией 2 , то при неограниченном увеличении n

n

закон распределения их суммы Y Xi неограниченно приближается к

i 1

нормальному.

Эта теорема в достаточно широком классе условий справедлива и для неодинаково распределенных слагаемых. Практически центральной предельной теоремой можно пользоваться и тогда, когда речь идет о сумме сравнительно небольшого числа (порядка десяти) случайных величин.

На практике центральная предельная теорема используется в виде двух формул Муавра-Лапласа.

1. Локальная теорема Лапласа (Муавра-Лапласа).

Если число независимых опытов n велико (несколько сотен), то

 

1

 

m np

 

P

 

 

 

 

f

 

 

 

 

,

 

 

 

 

 

 

m,n

 

 

npq

 

 

npq

 

 

 

 

 

 

 

 

 

 

 

где f x

 

1

 

e

x2

 

 

 

2 .

 

 

 

 

 

 

2

 

 

Вероятность того, что событие A в n опытах произойдет ровно m раз, вычисляется через нормированную плотность нормального закона.

2. Интегральная теорема Лапласа (Муавра-Лапласа).

Если число независимых опытов n велико (несколько сотен), то вероятность появления события A не менее m1 и не более m2 раз определяется по формуле:

 

 

 

 

 

 

 

 

 

m np

m

np

 

P m ,m P m m m Φ

2

 

 

Ф

1

 

 

 

,

 

 

 

 

 

n

1 2

 

1

2

 

 

npq

 

 

 

 

npq

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

где Φ x

1

 

x

 

t2

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

2 dt – функция Лапласа.

 

 

 

 

 

 

 

 

 

 

e

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

2

 

 

 

 

 

 

 

 

 

 

 

0