Добавил:
Upload Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:
С.Д. ШАПОРЕВ, Б.П. РОДИН СЛУЧАЙНЫЕ ПРОЦЕССЫ.pdf
Скачиваний:
901
Добавлен:
09.03.2016
Размер:
2.11 Mб
Скачать

попавшуюся машину, идущую в данном направлении. Найти закон распределения времени T , которое ему придётся ждать, его мате-

матическое ожидание mT и дисперсию DT .

Простейший поток – это поток без последействия. Таким образом, время ожидания здесь не зависит от того, сколько времени назад прошла последняя машина. Следовательно, распределение времени T точно такое же, как в предыдущем примере, т.е. аналогично распределению промежутка времени между появлени-

ем соседних машин, а именно F(T )=1e−λT ,λ = 2 . Отсюда mT = λ1 = 12 , DT = λ12 = 14 .

2.6.Потоки Эрланга и Пальма

Вподразд. 2.5 дано определение простейшего потока. Это стационарный пуассоновский поток, т.е. ординарный, стационарный и без последействия. Рассмотрим теперь примеры потоков с

ограниченным последействием. Так называются потоки (потоки

Пальма), у которых интервалы τ1,τ2 ,...,τn ,... между соседними по

времени событиями – независимые случайные величины (рис. 2.7). Очевидно, что стационарный пуассоновский поток является потоком Пальма, поскольку интервалы времени между его соседними событиями распределены одинаково по показательному закону (см. пример 10). В связи с одинаковостью распределений

τ1,τ2 ,...,τn ,... поток Пальма всегда стационарен. Поток Пальма, отличный от простейшего, получится, если интервал времени

Рис. 2.7. Ординарный поток событий

Рис. 2.8. Пример функции

 

плотности вероятности интер-

 

валов времени в потоке

51

между соседними событиями является случайной величиной с распределением, отличным от показательного распределения (таким, например, как на рис. 2.8).

Потоки Пальма применяются при решении прикладных задач теории надёжности технических устройств, в частности в теории восстановления.

Потоком Эрланга k-го порядка называется поток событий, получающийся «прореживанием» простейшего потока, когда в нем сохраняется каждая k-я точка (событие), а все промежуточные

выбрасываются (рис. 2.9).

Очевидно, что интервал τ(k )

между двумя событиями в таком

Рис. 2.9. Поток Эрланга 3-го порядка потоке есть сумма k независи-

мых случайных величин, имеющих показательное распределение с параметром λ – параметром исходного простейшего потока, т.е.

k

 

τ(k ) = τi .

(2.35)

i=1

Простейший поток, таким образом, представляет собой поток Эрланга 1-го порядка. Для потока Эрланга k-го порядка функция плотности вероятности имеет вид

f (k )(t)=

λ(λt)k1

e−λt ,

t > 0, k =1,2,... ,

(2.36)

(k 1)!

 

 

 

 

 

 

 

 

 

k1

i

 

 

а функция распределения F (k )(t)=1

(λt)

e−λt .

(2.37)

i!

 

 

 

i=1

 

 

Числовые характеристики случайной величины τ(k ) равны:

m(k ) =

k

,

D(k ) =

k

.

(2.38)

t

λ

 

t

λ2

 

 

 

 

 

С ростом k интенсивность потока за счёт «прореживания» уменьшается. Чтобы избежать этого, переходят к масштабированию оси времени, уменьшая масштаб на ней в k раз при формиро-

вании потока Эрланга k-го порядка. Для этого делят интервал τ(k )

52

между соседними событиями потока порядка на k . Таким образом получают нормированный поток Эрланга k-го порядка. Характе-

ристики этого потока следующие:

 

~(k )

=

1

k

 

 

 

 

 

 

 

τ

k

τi ,

 

 

 

 

 

 

 

i=1

 

 

 

 

 

 

~

(k )(t)= kf (k )(tk)=

λk(λtk)k1

e

−λtk ,

(2.39)

f

(k

1)!

 

 

 

1

 

 

 

 

 

 

~(k )

 

 

~(k )

1

 

 

 

 

 

mt

=

 

 

, Dt

=

 

.

 

 

 

λ

kλ2

 

 

Пример 12 [6]. На оси 0t

имеется простейший поток событий

с интенсивностью λ . Из этого потока формируется другой поток следующим образом: интервал между каждыми двумя соседними событиями делится пополам и в точке деления вставляется ещё одно событие. Найти плотность распределения f (t) интервала τ

между соседними событиями в новом потоке. Будет ли этот поток простейшим? Будет ли он потоком Пальма?

Пусть X – случайная величина – распределение промежутков времени между событиями в исходном простейшем потоке. Оче-

видно, f (x)= λe−λx , x > 0 , кроме того,

τ =

X

по условию задачи.

 

 

 

 

 

 

 

 

 

 

 

 

 

2

 

 

 

 

 

 

Известно, что если X – непрерывная случайная величина с

плотностью

f (x), а случайная величина Y связана с

X функцио-

нальной зависимостью Y = ϕ(X ), то

плотность Y

выражается

формулой

g(y)= f (ψ(y))

 

ψ/ (y)

 

,

где

ψ – функция, обратная к

 

 

функции

ϕ.

В нашем случае τ =

 

X

,

т.е. ϕ – линейная функция

2

Y = kX ,k = 1

 

x

 

 

 

 

 

 

 

 

 

 

 

 

 

 

,ϕ(x)= kx =

, отсюда

ψ(y)= 2y,ψ/ (y)= 2,

 

ψ/ (y)

 

= 2 .

 

 

 

 

2

2

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

Тогда g(y)= 2 f (2y)= 2λe2λy , т.е. функция плотности вероятности распределения интервалов τ в новом потоке будет иметь вид

f1(t)= 2λe2λt , t > 0 .

Таким образом, вновь получаем показательное распределение с параметром λ1 = 2λ , причём интервалы между событиями рас-

53

пределены одинаково. Однако они не являются независимыми. Действительно, два соседних интервала между событиями потока с вероятностью 1/2 независимы (в исходном потоке их половинки принадлежали разным соседним интервалам), а с вероятностью 1/2 равны друг другу, т.е. зависимы (в исходном потоке их половинки располагались в одном интервале). Таким образом, новый поток не пальмовский и не простейший, так как простейший поток – частный случай пальмовского.

Значит, показательное распределение интервала между событиями – недостаточное условие для того, чтобы поток был простейшим.

2.7. Марковские процессы (дискретные состояния, дискретное время)

В зависимости от того, какие значения, непрерывные или дискретные, принимают случайные величины ξ(t) и их аргумент

t [0,T ], различают четыре основных вида марковских случайных процессов: марковские цепи ( ξ(t) и t дискретны), марковские последовательности ( ξ(t) непрерывно, t дискретно), дискретные марковские процессы ( ξ(t) дискретно, t непрерывно) и непрерывные марковские процессы ( ξ(t) и t непрерывны).

Основное свойство всех видов марковских процессов таково: случайный процесс ξ(t) называется марковским, если для любых

моментов времени t1 < t2 <... < tn ,ti [0,T ] условная функция распределения значения ξ(tn ) при фиксированных значениях ξ(t1 ),ξ(t2 ),...,ξ(tn1 ) зависит только от ξ(tn1 ), т.е.

P {ξ(tn )< xn

ξ(t1 )= x1,ξ(t2 )= x2

,...,ξ(tn1 )= xn1}=

(2.40)

= Р{ξ(tn )< xn ξ(tn1 )= xn1}.

 

Если вести речь о какой-нибудь физической системе, то для любого ti ,i =1,n вероятность любого ее состояния в будущем (при t > ti ) зависит только от состояния в настоящем (при t = ti ) и не

зависит от того, когда и каким образом система пришла в это состояние. Свойство (2.40) называется марковским свойством.

54

При анализе марковских процессов с дискретными состояниями удобно пользоваться геометрической схемой – графом состояний (орграфом), который изображает возможные состояния физической системы и возможные ее переходы из одного состояния в другое. Состояния изображаются вершинами орграфа, а возможные переходы – дугами.

Условную функцию распределения

Fξ{y,t x,τ}= P{ξ(t)< y ξ(τ)= х}

(2.41)

называют переходной функцией марковского процесса. Марковский процесс ξ(t) называется однородным (стацио-

нарным) по времени, если его переходная функция

Fξ{y,t

x, τ}

зависит только от разности

t − τ. Марковский процесс

ξ(t)

называется

процессом с независимыми

приращениями,

если

при любых

0 t1 < t2 <... < tn ,ti [0,T ]

случайные

величины

ξ(t1 ),ξ(t2 )−ξ(t1 ),...,ξ(tn )−ξ(tn1 )

независимы. Процесс с независи-

мыми приращениями называется однородным, если для любых

τ,t1,t2 ,(t1 < t2 ) приращения ξ(t2 )− ξ(t1 ),ξ(t2 + τ)− ξ(t1 + τ) распределены одинаково, т.е. не зависят от τ .

Рассмотрим подробнее марковские цепи. Пусть для определённости ξ(t) принимает лишь целые значения 0, 1, 2,… для

t0 < t1 < t2 < ... < tn1 < tn . График процесса ξ(t) изображён на

рис. 2.10. При этом ξ(t0 )= i0 ,ξ(t1 )= i1,...,ξ(tn1 )= i , где i0 ,i1,...,i – некоторые заданные целые числа. Условная вероятность равенства

ξ(tn )= j в соответствие с формулой (2.40) равна:

P{ξ(tn )= jξ(t0 )= i0 ,...,ξ(tn1 )= i}= P{ξ(tn )= jξ(tn1 )= i}.

Таким образом, каковы бы ни были значения i0 ,i1,...,in2 , принятые ξ(t) до момента tn1 , это не даёт никакой дополнительной информации, если известно значение ξ(tn1 )= i .

Переходная функция для марковской цепи имеет вид

P{ξ(tn )= j ξ(tn1 )= i}= pij (tn1,tn ).

(2.42)

55

Рис. 2.10. Марковская цепь

Значения pij называются переходными вероятностями процесса

ξ(t). Для однородной цепи, очевидно, pij (tn1,tn )= pij (τ), где τ = tn tn1 при всяких tn1 и tn , т.е. в этом случае переходные

вероятности не зависят от номера шага, а зависят только от того, из какого состояния и в какое осуществляется переход.

Для марковской цепи моменты t1,t2 ,...,tn , в которые физиче-

ская система меняет своё состояние, удобно рассматривать как последовательные шаги процесса смены состояний системы

ξ(0),ξ(1),...,ξ(n); в качестве аргумента выбрать не время t , а номер шага: 1,2,...,n (здесь ξ(0) – начальное состояние системы).

Событие {ξ(n)= j}={ после n -го шага система находится в состоянии j} случайное, поэтому последовательность состояний ξ(0),ξ(1),...,ξ(n) можно рассматривать как последовательность слу-

чайных событий.

Введём вероятности pi (k) того, что после k-го шага система будет в состоянии i (i =1,2,...,n). Вероятности pi (k ) называются вероятностями состояний марковской цепи. Очевидно, что для

n

любого k pi (k)=1, поскольку для каждого фиксированного k

i=1

56

всегда имеется полная группа событий. Распределение вероятностей в начале процесса p1(0), p2 (0),..., pn (0) называется начальным

распределением вероятностей марковской цепи.

Марковская цепь называется однородной, если переходные вероятности pij (k) не зависят от номера шага k .

Переходные вероятности (2.42) однородной марковской цепи образуют квадратную матрицу Pn×n , равную:

 

 

 

 

 

 

p

11

p

...

p

 

 

 

 

 

 

 

 

 

12

 

1n

 

P

=

 

pij

 

=

p21

p22 ...

p2n

(2.43)

 

 

 

 

 

 

 

 

 

.

 

 

 

 

 

 

...

... ...

...

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

pn2 ...

 

 

 

 

 

 

 

 

 

pn1

pnn

 

Для любой строки матрицы P имеет место равенство

 

n

 

 

 

 

 

 

 

 

 

 

 

 

pij =1,i =1,2,..., n.

 

 

 

(2.44)

j=1

Вероятности pij суть не что иное, как вероятности того, что

система, пришедшая к данному шагу в состояние i , в нём же и задержится на очередном шаге, т.е. это вероятности задержки системы в данном состоянии. Равенство (2.44) описывает тот факт, что физическая система на каждом шаге может находиться только в одном из множества взаимно исключающих друг друга состояний, поэтому сумма вероятностей по строкам (сумма вероятностей перехода из i -го состояния) должна равняться единице.

Выведем формулу для вероятности нахождения системы на

k -м шаге в состоянии

j для однородной марковской цепи:

 

p j (k)

n

 

 

= pi (k 1)pij ,k =1,2,..., j =1,2,...,n.

(2.45)

 

i=1

 

 

Формула (2.45) получается рекуррентным образом при помо-

 

 

n

 

щи формулы

полной

вероятности P(A)= P(Hi )P(А Нi ), где

i=1

Hi ,i =1,n – полная группа гипотез, сопровождающих событие A .

57

Пусть заданы начальное распределение вероятностей pi (0),i =1,2,...,n и матрица переходных вероятностей pij . Пред-

положим, что в начальный момент (на нулевом шаге) система находится в состоянии i . Это будет одна из однотипных гипотез на-

шей схемы. Вероятность этой гипотезы равна: pi (0)= P{ξ(0)= i}.

Условная вероятность того, что система на первом шаге будет находиться в состоянии j , равна переходной вероятности

pij = P{ξ(1)= jξ(0)= i}. Тогда по формуле полной вероятности получим

n

p j (1)= P{ξ(0)= i}P{ξ(1)= jξ(0)= i}=

i=1

n

= pi (0)pij , j =1,2,..., n.

i=1

Таким образом, можно найти вероятности p1(1), p2 (1),..., pn (1).

По описанной схеме определяются и вероятности нахождения системы на втором шаге. Здесь поменяются лишь вероятности гипотез

схемы, именно pi (1)= P{ξ(1)= i}, которые будут вычислены на первом шаге, переходные же вероятности не изменятся. Следовательно,

n

p j (2)= P{ξ(1)= i}P{ξ(2)= jξ(1)= i}=

i=1

n

= pi (1)pij , j =1,2,..., n.

i=1

Применяя данный приём k раз, придём к формуле (2.45).

Во многих технических задачах используется так называемый стационарный или установочный режим работы физической системы. Этот режим характеризуется тем, что по прошествии достаточно большого времени t вероятности пребывания системы в различных состояниях стабилизируются, т.е. состояния системы n

меняются случайным образом, но их вероятности pi (t),i =1,2,...

остаются постоянными. Это значит, что в стационарном режиме существует постоянный предел этих вероятностей, т.е.

pi = lim pi (t).

(2.46)

t→∞

 

58

Вероятности pi , когда они существуют, называются финаль-

ными или предельными вероятностями состояний. Финальная вероятность есть не что иное, как средняя доля времени, которое в стационарном режиме проводит физическая система в конкретном состоянии i . Стационарный режим характерен тем, что система продолжает блуждать по состояниям, но вероятности этих состояний уже не зависят от номера шага.

Оказывается, что условия существования стационарного режима для физической системы с конечным числом состояний n таковы:

1) множество всех состояний системы должно быть эргодическим. Это определение нуждается в пояснении. Множество состояний системы называется связанным или эргодическим, если из любого состояния, входящего в множество состояний, можно попасть в любое другое состояние, принадлежащее этому же множеству;

2) марковская цепь должна быть однородной, т.е.

pij (k)= pij ;

3) марковская цепь не должна быть «циклической», т.е. граф состояний этой цепи не должен содержать циклов.

Марковские цепи, удовлетворяющие этим трём условиям, на-

зываются эргодическими марковскими цепями.

Финальные вероятности системы можно найти из решения системы линейных алгебраических уравнений, получаемых из уравнений (2.45). Действительно, если однородная марковская

цепь стационарна, то вероятность p j состояния j на (k +1)-м шаге не изменяется, т.е. она должна быть такой же, что и на k-м ша-

n

n

 

n

ге: p j (k +1)= p j = pi (k)pij = pi pij , т.е.

p j = pi pij . Пре-

i=1

i=1

 

i=1

образуя последнее уравнение, получаем

 

 

n

 

 

 

pi pij + p j (p jj 1)=0, j =1,2,..., n.

(2.47)

i=1, ij

Это система линейных однородных алгебраических уравнений относительно финальных вероятностей p1, p2 ,..., pn . Поскольку

59

система однородна, она имеет бесконечное множество решений. К

n

системе (2.47) можно добавить условие нормировки p j =1 , за-

j =1

менив им любое из ее уравнений. Тогда получим линейную неоднородную систему алгебраических уравнений

n pi pij + p j (p jj 1)= 0, j =1,2,...n,

i=1,

(2.48)

ij

n

 

p j

=1,

j=1

которая имеет единственное решение, однозначно определяя финальные вероятности p1 , p2 ,..., pn .

Приведём без доказательства ещё одно свойство стационарных марковских цепей. Назовём выражение pi pij потоком веро-

ятностей, переводящим физическую систему из состояния i в состояние j . Тогда для марковской цепи в стационарном режиме

суммарный поток вероятностей, переводящий систему в состояние j из других состояний, равен суммарному потоку вероятностей,

выводящему систему из состояния j :

n

n

 

pi pij

= p j p ji , j =1,2,...,n.

(2.49)

i=1,

i=1,

 

ij

ij

 

Эти условия часто называют балансовыми условиями для состояния j . Из (2.49) с добавлением условия нормировки и удале-

нием любого уравнения также можно получить значения финальных вероятностей системы.

Пример 13 [6]. В процессе эксплуатации ЭВМ может рассматриваться как физическая система, которая в результате проверки может оказаться в одном из следующих состояний: 1 – полностью исправна, 2 – имеет незначительные неисправности оперативной памяти, при которых она может решать задачи, 3 – имеет существенные неисправности и может решать ограниченный класс задач, 4 – полностью вышла из строя. В начальный момент време-

60

ни ЭВМ полностью исправна (состояние 1). Её проверка производится в фиксированные моменты времени t1 ,t2 и t3 . Процесс,

протекающий в ЭВМ, может рассматриваться как однородная марковская цепь с тремя шагами (первая, вторая и третья

проверка

ЭВМ).

Матрица переходных вероятностей имеет вид

 

 

0.25

0.35

0.2

0.2

 

 

 

 

 

0

0.35

0.45

0.2

 

 

 

pij

 

 

. Найти вероятности состояний

 

=

0

0

0.35

0.65

 

 

 

 

 

 

 

 

 

0

0

0

1.0

 

 

 

 

 

 

 

ЭВМ после трёх проверок.

Изобразим вначале граф состояний данной физической системы (ЭВМ) (рис. 2.11).

Рис. 2.11. Граф состояний ЭВМ

Вероятности переходов матрицы pij указаны на соответст-

вующих дугах. Очевидно, начальные вероятности состояний тако-

вы: p1(0)=1, p2 (0)= p3 (0)= p4 (0)= 0 . По формуле (2.45) найдём вероятности следующих состояний. При этом учтём только те, из которых возможен непосредственный переход в данные состояния

(см. рис. 2.11).

Итак, по формуле (2.45)

61

p1(1)= p1(0)p11 + p2 (0)p21 + p3 (0)p31 + p4 (0)p41 =

i=1,k=0 i=2,k=0 i=3,k=0 i=4,k=0

=1 0,25 +0 0 +0 0 +0 0 = 0,25. Аналогично p2 (1)= p1(0)p12 =1 0,35 = 0,35 ,

p3 (1)= p1(0)p13 =1 0,2 = 0,2 , p3 (1)= p1(0)p14 =1 0,2 = 0,2 . Для сл е-

дующих шагов цепочка переходов в данное состояние может быть длинней (см. рис.2.11):

p1(2)= p1(1)p11 = 0,25 0,25 = 0,0625 ,

p2 (2)= p1(1)p12 + p2 (1)p22 = 0,25 0,35 + 0,35 0,35 = 0,021, p3 (2)= p1(1)p13 + p2 (1)p23 + p3 (1)p33 = 0,25 0,2 + 0,35 0,45 +

+ 0,2 0,35 = 0,02775,

p4 (2)= p1(1)p14 + p2 (1)p24 + p3 (1)p34 + p4 (1)p44 = 0,25 0,2 +

+ 0,35 0,2 + 0,2 0,65 + 0,2 1,0 = 0,45,

p1(3)= p1(2)p11 = 0,0625 0,25 = 0,0156 ,

p2 (3)= p1(2)p12 + p2 (2)p22 = 0,0625 0,35 + 0,21 0,35 = 0,0954, p3 (3)= p1(2)p13 + p2 (2)p23 + p3 (2)p33 = 0,0625 0,2 +

+ 0,21 0,65 + 0,2775 0,35 = 0,2461,

p4 (3)= p1(2)p14 + p2 (2)p24 + p3 (2)p34 + p4 (2)p44 =

=0,0625 0,2 + 0,21 0,2 + 0,2775 0,65 + 0,45 1,0 = 0,6883.

Итак, p1(3)= 0,0156 , p2 (3)= 0,0954 , p3 (3)= 0,2461 , p4 (3)= 0,6883 .

Пример 14 [8]. Известна матрица P переходных вероятностей однородной цепи Маркова. Определить: 1) число возможных состояний этой цепи; 2) вероятности состояний после двух шагов, если на нулевом шаге состояния одинаковы, а

 

1

1

1

 

 

 

 

2

3

6

 

 

 

 

 

 

P =

 

1

1

1

 

;

 

2

3

6

 

 

 

1

1

1

 

 

 

 

2

3

6

 

 

 

 

 

 

3) финальные вероятности этой марковской цепи.

Изобразим граф состояний данной физической системы (рис. 2.12). Тогда очевидно, что число возможных состояний равно

трём. По условию задачи p1(0)= p2 (0)= p3 (0)= 13 . По формуле (2.45)

62

p1(1)= p1(0)p11 + p2 (0)p21 + p3 (0)p31 = 13 12 + 13 12 + 13 12 = 12 , p2 (1)= p1(0)p12 + p2 (0)p22 + p3 (0)p32 = 13 13 + 13 13 + 13 13 = 13 , p3 (1)= p1(0)p13 + p2 (0)p23 + p3 (0)p33 = 13 16 + 13 16 + 13 16 = 16 , p1(2)= p1(1)p11 + p2 (1)p21 + p3 (1)p31 = 12 12 + 13 12 + 16 12 = 12 , p2 (2)= p1(1)p12 + p2 (1)p22 + p3 (1)p32 = 12 13 + 13 13 + 16 13 = 13 , p3 (2)= p1(1)p13 + p2 (1)p23 + p3 (1)p33 = 12 16 + 13 16 + 16 16 = 16 .

Рис. 2.12. Граф состояний задачи примера 14

Итак, p(2)= 1 , 1 , 1 T , причём все три состояния доступны за

2 3 6

эти два шага.

Финальные вероятности найдём по формулам (2.48), которые в данном случае будут иметь следующий вид:

p2 p21 + p3 p31 + p11(p11 1)= 0, p1 p12 + p3 p32 + p22 (p22 1)= 0, p1 p13 + p2 p23 + p33 (p33 1)= 0,

p1 + p2 + p3 =1.

63