Добавил:
Upload Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:

Sluchaynye_protsessy

.pdf
Скачиваний:
7
Добавлен:
11.05.2015
Размер:
763.29 Кб
Скачать

6.Цепи Маркова

6.1.Определение цепи Маркова

В этом

разделе

будем изучать дискретную случайную последовательность ξi ,

i = 0,1,2,...

, т.е.

случайный процесс с дискретным

множеством

состояний

E = {E1, E2 ,..., Ek }

или

E = {E1, E2 ,..., Ek ,...}

и

дискретным

временем

T = {t1, t2 ,...,tm ,...}. Обычно при рассмотрении дискретной последовательности ξi говорят о некоторой системе, которая может находиться в одном из состояний E = {E1, E2 ,..., Ek ,...} и переходить из одного состояния в другое в дискретные моменты времени.

Определение 1. Дискретная случайная последовательность ξi , i = 0,1,2,..., называется цепью Маркова, если вероятность pis,,js+1 того, что в момент времени s + 1 система будет находиться в состоянии E j , зависит от того, в каком состоянии Ei система находилась в

предыдущий момент времени s и не зависит от того, в каких состояниях она находилась в более ранние моменты времени s −1, s − 2,...,0 :

pis,,js+1 = Ps+1 = E j / ξs = Ei ) = Ps +1 = E j / ξs = Ei s−1 = Ek ,...,ξ0 = El ) .

Вероятность

pis,,js+1 = Ps+1 = E j / ξs = Ei )

это условная вероятность того, что в момент времени s + 1 система будет находиться в со- стоянии E j при условии, что в предыдущий момент s она находилась в состоянии Ei . Эта

вероятность называется вероятностью перехода из состояния Ei в состояние E j за один шаг для моментов времени s, s + 1.

Цепь Маркова называется конечной, если множество E ее состояний конечное.

Цепь Маркова называется однородной, если условная вероятность pis,,js+1 не зависит от момента времени s . В этом случае эта вероятность обозначается как pi, j и называется ве- роятностью перехода из состояния Ei в состояние E j за один шаг. Мы будем рассматривать только однородные цепи Маркова.

Вероятности перехода pi, j образуют матрицу

 

P = ( pi, j ) , i, j = 1,2,... ,

(6.1)

которая называется матрицей вероятностей перехода однородной цепи Маркова. Элементы этой матрицы удовлетворяют следующим условиям:

0 ≤ pi, j ≤1,

å pi, j =1, i =1,2,... .

j =1

Первое условие является естественным свойством любой вероятности, а второе является следствием того, что система обязательно перейдет за один шаг в иное состояние, или оста- нется в прежнем. Это условие означает, что сумма элементов каждой строки матрицы веро- ятностей перехода P равна единице.

41

Пример 6.1. Урновая модель. Имеем две урны. В первой из них находятся 1 белый и 2 черных шара, во второй – 1 белый и 5 черных шаров. Начиная с первой урны, наугад выни- маем шар за шаром, причем если был вынут белый шар, то следующий шар вынимаем из первой урны, а если черный то из второй. Каждый вынутый шар тут же возвращаем в урну, из которой он был вынут. Нас может интересовать, например, вероятность вынуть белый (или черный) шар на n -м шаге.

Описанная в данном примере последовательность испытаний образует однородную цепь Маркова с двумя состояниями: E1 вынутый шар белый и E2 вынутый шар черный. Ве-

роятности перехода за один шаг имеют следующий смысл: p1,1 вероятность вынуть белый шар после предыдущего белого, т.е. вероятность вынуть белый шар из первой урны; p1,2 вероятность вынуть черный шар после предыдущего белого, т.е. вероятность вынуть черный шар из первой урны; p2,1 вероятность вынуть белый шар после предыдущего черного, т.е. вероятность вынуть белый шар из второй урны; p2,2 вероятность вынуть черный шар по-

сле предыдущего черного, т.е. вероятность вынуть черный шар из второй урны. Таким обра- зом, матрица вероятностей перехода за один шаг имеет вид:

 

 

 

 

 

æ

 

1

2

ö

 

æ

p

p

ö

 

ç

 

 

 

 

÷

 

 

3

3

 

ç

1,1

1,2

÷

 

ç

 

÷

 

P = ç p2,1

p2,2

÷

=

ç

 

1

 

5

÷.

(6.2)

è

 

 

ø

 

ç

 

 

6

÷

 

 

 

 

 

 

è 6

ø

 

Пример 6.2. Случайное блуждание на прямой с поглощающими экранами. Пусть некото- рая частица находится на действительной прямой и движется по ней под воздействием слу-

чайных толчков, которые возникают в моменты t0 ,t1,... . Частица может находиться в точ- ках a,a + 1,...,a + m,...,b . В точках a и b размещаются поглощающие стенки (экраны). Из каждой точки, кроме точек a и b, частица перемещается в правую точку с вероятностью p и в левую с вероятностью q = 1 − p . При достижении стенок (точек a и b) частичка прили-

пает к ним.

В данном примере рассмотрена система, которая может находиться в одном из состояний E1 = a , …, Ek = b. Если система находится в состояниях E1 = a , или Ek = b, то она с ве- роятностью единица остается в этих состояниях. Если же система находится в одном из про- межуточных между a и b состоянии a + m , то она с вероятностью p переходит в правое состояние a + m +1 и с вероятностью q = 1 − p в левое состояние a + m −1. Матрица

вероятностей перехода этой цепи Маркова имеет вид

 

æ1 0 0 0 ... 0

ö

ç

 

÷

çq 0 p 0 ... 0

÷

P = ç

0 q 0 p ... 0

÷ .

ç

 

÷

çMMMMMMMMMMM

÷

ç

0 0 0 0 ...1

÷

è

ø

Состояния a и b системы называются поглощающими.

В данном примере нас может интересовать, например, вероятность прилипания частицы к стенке в точке b.

Этот пример имеет также иную интерпретацию. Некий игрок выигрывает и проигрывает определенную сумму с вероятностями p и q = 1 − p соответственно. Суммарный капитал

42

обоих игроков равен b. Игра продолжается до тех пор, пока капитал нашего игрока не уменьшится до нуля ( a = 0) или не возрастет до b, т.е. до того времени, пока один из игро- ков не разорится. Нас может интересовать вероятность разорения нашего игрока и распреде- ление вероятностей на протяжении игры. Такая интерпретация задачи случайных блужданий называется классической задачей о разорении.

6.2. Вероятности перехода за несколько шагов (уравнение ЧепменаКолмогорова)

Сейчас нас будут интересовать вероятности перехода системы, которая образует одно- родную цепь Маркова, из состояния Ei в состояние E j за n шагов. Обозначим эти вероят-

ности как pi, j (n) и назовем матрицу

 

Pn = (pi, j (n)), i, j = 1,2,... ,

(6.3)

матрицей вероятностей перехода за n шагов. Понятно, что P1 = P , где P матрица веро- ятностей перехода за один шаг (6.1).

Рассмотрим переходы системы на протяжении последовательных n шагов. Пусть Pn матрица вероятностей перехода за эти n шагов, Pm матрица вероятностей перехода за первые m шагов, m < n , Pnm матрица вероятностей перехода за оставшиеся n m ша- гов. Тогда выполняется следующее равенство:

Pn = Pm Pnm , 0 < m < n .

(6.4)

Действительно, переход за n шагов возможен только через одно из состояний на m -м шаге.

Поэтому по формуле полной вероятности получим

 

 

 

 

 

 

pi, j (n) = å pi(m) pν, j (n m) .

 

 

ν=1

 

 

 

 

Последняя формула есть формула умножения матриц (6.4).

Равенство (6.4) называется уравнением ЧепменаКолмогорова.

Из уравнения (6.4) при n = 2 получим, что

 

 

 

 

P = P P = P2

= P2 .

При n = 3 находим:

2

1

1

1

 

 

 

 

 

 

 

 

P = P P = P P = P3

= P3 .

3

1

2

2

1

1

 

Вообще, при любом n имеем

 

P = Pn

 

 

 

 

,

(6.5)

 

 

 

n

 

 

 

т.е. матрица вероятностей перехода за n шагов равна n -й степени матрицы вероятностей перехода за один шаг.

6.3. Безусловные вероятности цепи Маркова

Для цепи Маркова важно знать абсолютные (безусловные) вероятности состояния систе- мы на любом n -м шаге

ai (n) = Pn = Ei ) , i =1,2,... .

Эти вероятности образуют матрицу-строку (вектор-строку) AnT безусловных вероятностей системы для момента времени n :

43

 

AT

= (a (n),a

2

(n),...,)= (a (n)) , i =1,2,... .

(6.6)

Элементы вектора AT

n

1

 

i

 

удовлетворяют при любом n очевидным условиям:

 

n

 

 

0 ≤ ai (n) ≤ 1,

 

 

 

 

 

 

 

 

 

 

 

 

 

åai (n) =1.

 

 

 

 

i =1

 

 

Для полного описания однородной цепи Маркова необходимо знать матрицу вероятно-

стей перехода P и вектор безусловных вероятностей

AT

для начального момента времени

 

 

0

 

 

n = 0. Этих данных достаточно, чтобы найти вектор безусловных вероятностей AT

для лю-

бого n -го шага с помощью формулы

 

 

n

 

 

 

 

 

AT

= AT P .

 

(6.7)

n

0

n

 

 

Действительно, попадание системы в состояние E j на n -м шаге возможно при ее выходе в начальный момент времени из одного из своих состояний и переходе за n шагов в состояние E j . В этом случае применима формула полной вероятности

a j (n) = åaν (0) pν, j (n), j =1,2,... ,

ν=1

которая в векторно-матричной форме имеет вид (6.7).

В качестве примера рассмотрим урновую модель примера 6.1 и найдем вероятности вы- нуть белый и черный шары во втором испытании. Поскольку выбор шаров начинается с пер- вой урны, то вектор безусловных вероятностей для начального испытания состоит из вероят- ностей вынуть белый и черный шары из первой урны:

T

æ

1

 

2

ö

A

= ç

 

,

 

÷.

 

 

0

è 3

 

3

ø

 

 

По формуле (6.5) найдем матрицу вероятностей перехода за два шага

 

 

 

æ

 

1

2 öæ

 

1

2 ö æ

2

7 ö

 

 

 

ç

 

 

 

 

֍

 

 

 

 

÷

ç

 

 

 

 

 

 

 

÷

 

2

 

3

3

3

3

9

9

 

P2 = P

 

ç

 

֍

 

÷ ç

 

÷

 

=

ç

 

1

5

֍

 

1

5

÷

= ç

7

29

÷ .

 

 

 

ç

 

 

 

 

֍

 

 

 

 

÷

ç

 

 

 

 

 

 

 

÷

 

 

 

 

6

 

 

 

6

 

 

 

 

 

 

 

 

 

 

 

 

è

 

6 øè

 

6 ø è

36 36 ø

Наконец, по формуле (6.7) найдем вектор безусловных вероятностей на втором шаге:

 

 

 

 

 

æ

 

1

2

ö

 

 

 

 

 

 

 

æ

1

 

ç

 

 

 

 

÷

æ 11

 

43

ö

T

T

 

3

3

 

 

2 öç

 

÷

 

A

= A P

= ç

 

,

 

÷

 

1

5

 

= ç

 

,

 

÷ .

3

 

 

 

54

2

0 2

è

 

3 øç

 

÷ è 54

 

ø

 

 

 

 

 

ç

 

 

 

 

÷

 

 

 

 

 

 

 

 

 

 

 

6

 

 

 

 

 

 

 

 

 

 

 

 

è

 

6 ø

 

 

 

 

 

Таким образом, при втором испытании (начиная с нулевого) мы с вероятностью 1154 вынем белый шар, и с вероятностью 5443 черный.

6.4. Классификация состояний цепи Маркова

Все состояния цепи Маркова принято разделять на существенные и несущественные.

44

Состояние Ei называется несущественным, если существуют такие j и n , что pi, j (n) > 0, и для всех m p j,i (m) = 0. Все остальные состояния называются существен- ными. Мы видим что, из несущественного состояния Ei . возможен переход в какое-то дру- гое состояния E j , но обратно в Ei вернуться невозможно.

В свою очередь существенные состояния распадаются на классы S (α) так называемых сообщающихся состояний. Существенные состояния Ei и E j называются сообщающимися,

если существуют такие n и m , что pi, j (n) > 0 и p j,i (m) > 0. Это значит, что из состоя- ния Ei за некоторое число шагов n можно попасть в состояние E j , и затем за некоторое

число шагов m вернуться обратно в Ei .

В соответствии с этой классификацией очевидно, что наша система попадает однажды в одно из состояний класса S (α) сообщающихся состояний и никогда не выходит за пределы этого класса. Если класс S (α) состоит только из одного состояния Ei , то это состояние на-

зывается поглощающим.

Цепь Маркова называется неприводимой, если она имеет только один класс сообщаю- щихся состояний.

Существенные состояния бывают периодическими и не периодическими. Периодом di состояния Ei называется наибольшим общий делитель таких чисел n , для кото- рых pi,i (n) > 0 . Вероятность pi,i (n) это вероятность вернуться в состояние Ei за n ша- гов, выйдя из этого состояния. Состояние Ei которое имеет период di > 1, называется пе- риодическим. Состояние Ei называется не периодическим, если такого периода di > 1 не существует. Таким образом, периодическое состояние Ei это такое состояние, в которое можно периодически возвращаться через di , 2di , 3di , … шагов. Можно доказать, что все состояния, которые относятся к одному и тому же классу S (α) , имеют один и тот же период, который обозначается, как d(α) и называется периодом класса S (α) . Класс S (α) , для кото-

рого существует период d(α) > 1, называется периодическим. Класс S (α) , для которого не существует d(α) >1, называется не периодическим.

Состояния делятся также на возвратные и не возвратные. Для объяснения этих понятий требуется рассмотреть вероятность Ki(,nj) того, что из состояния Ei система перейдет в со-

стояние E j ровно на n -м шаге. В частности, Ki(,ni ) есть вероятность того, что, начиная с Ei , система впервые вернется в это же состояние на n -м шаге. Обозначим

Li, j = åKi(,nj) . n=1

Понятно, что Li, j есть вероятность того, что, начиная с Ei , система когда-нибудь пройдет через E j . Состояние Ei называется возвратным, если когда Li,i =1, и не возвратным, если Li,i <1. Мы видим, что состояние является возвратным, если система обязательно когда- нибудь вернется в это состояние. В не возвратное состояние система может как вернуться,

45

так и не вернуться. Доказано, что в пределах одного класса S (α) существенных состояний

или все L

<1, или все L

=1. Если все L

=1, то класс S (α) называется возвратным.

i,i

 

i,i

i,i

 

Если, наоборот, все L

<1, то класс S (α) называется не возвратным.

 

i,i

 

 

 

Возвратные классы в свою очередь делятся на положительные и нулевые. Признаком для деления является среднее количество шагов (математическое ожидание количества шагов),

необходимое для перехода из Ei в E j :

Mi, j = ånKi(,nj) .

n=1

Вчастности, Mi,i есть среднее количество шагов до первого возврата в состояние Ei , когда

первоначально также было состояние Ei . Mi,i называется также средним временем возвра- та в состояние Ei . Доказано, что в пределах одного возвратного класса или все Mi, j беско- нечные, или все Mi, j конечные. Классы, для которых все Mi, j конечные, называются по- ложительными, а классы, в которых все Mi, j = ∞ , называются нулевыми.

Иногда не периодические положительные классы называются эргодическими.

Пример 1. В примере 1 раздела 6.3 с урновой моделью оба состояния образуют один класс существенных сообщающихся состояний.

Пример 2. В примере 2 раздела 6.3 со случайными блужданиями на прямой имеются три класса состояний: {a}, {a + 1,...,a + m}, {b}. Состояния {a}, {b} существенные погло-

щающие. Состояния a + 1,...,a + m не существенные. Система при длительном функцио-

нировании выходит из этих состояний и обратно не возвращается.

Пример 6.3. Пусть цепь Маркова имеет следующую матрицу вероятностей перехода:

æ

0

1

ö

P = ç

 

 

÷.

ç

1

0

÷

è

ø

Оба состояния этой цепи существенные и составляют один класс сообщающихся состояний. Легко заметить, что

P = P = ... = P

æ

0

1

ö

= ç

 

 

÷ .

2 4

2n

ç

1

0

÷

 

 

è

ø

Это значит, что класс состояний нашей цепи периодический с периодам d = 2 . Для конечных цепей Маркова справедлива следующая теорема.

Теорема 8.1. В конечной цепи Маркова не существует нулевых состояний, и все ее со- стояния не могут быть не возвратными.

6.5. Предельные вероятности состояний цепи Маркова

Часто нас интересует поведение системы, функционирующей достаточно длительное время. Это значит, что нас интересует поведение вероятностей pi, j (n) при n → ∞ . В неко-

торых случаях эти вероятности сходятся при n → ∞ к некоторым пределам, которые назы- ваются предельными вероятностями. Условия существования предельных вероятностей оп- ределяет следующая теорема.

46

Терема (Маркова). Если существует такое s > 0, что все pi, j (s) > 0, то существуют та-

кие числа p j , j =1,2,...,k , что независимо от индекса i выполняются следующие соотно- шения:

lim pi, j (n) = p j , j =1,2,...,k ,

(6.8)

n→∞

 

 

k

 

 

å p j

=1.

 

j =1

Физический смысл этой теоремы состоит в том, что вероятности pi, j (n) перехода из со- стояния Ei в состояние E j за n шагов при n → ∞ не зависят от состояния Ei , из которого

был начат переход. Система как бы забывает о своем состоянии в далеком прошлом. Пример. Применима ли теорема о предельных вероятностях к цепи Маркова с матрицей

вероятностей перехода

0

1

 

æ

ö

P = ç

 

 

÷?

ç

1

0

÷

è

ø

Поскольку для такой цепи

1

0

 

 

 

0

1

 

P

æ

ö

 

æ

ö

= ç

 

 

÷ , P

= ç

 

 

÷, m = 1,2,... ,

2m

ç

0

1

÷

2m+1

ç

1

0

÷

 

è

ø

 

è

ø

то для каждого s матрица Ps имеет нулевые элементы. Условия теоремы не выполняются, так что мы не можем утверждать, что предельные вероятности существуют.

Объединим предельные вероятности p j , j =1,2,...,k , в вектор-строку предельных веро-

ятностей

 

 

 

( p )T = ( p , p ,..., p ) .

(6.9)

1

2

k

 

Тогда выражение (6.8) можно записать в следующей векторно-матричной форме:

 

lim P = P

,

(6.10)

n→∞

n

 

 

где P (k × k)-матрица предельных вероятностей. Все строки матрицы P одинаковы и

совпадают с вектором-строкой ( p )T (6.9).

Теорема. Если для цепи Маркова существует вектор-столбец предельных вероятностей p (6.9), то он удовлетворяет следующей системе линейных алгебраических уравнений:

PT p = p ,

(6.11)

k

 

 

å p j

=1.

(6.12)

j =1

Действительно, запишем для цепи Маркова уравнение ЧэпменаКолмогорова (6.4) в виде

Pn+1 = Pn P

и найдем предел обеих частей при n → ∞ . Поскольку при этом Pn+1 = Π , Pn = Π , то по-

лучаем уравнение

P = P P ,

из которого следует (6.11).

47

Рассмотрим также безусловные предельные вероятности

a j

= lim a j (n) ,

 

n→∞

образующие вектор-строку безусловных предельных вероятностей (A )T = (a ,a ,...,a ) ,

так что

 

1 2

k

 

 

 

(A )T = lim A .

 

(6.13)

n→∞

n

P (6.9), то он является и

Теорема. Если существует вектор предельных вероятностей

вектором безусловных предельных вероятностей:

 

 

 

A = P .

 

 

(6.14)

Чтобы получить равенство (6.14), запишем соотношение (6.7), взяв предел от обеих его

частей:

 

 

 

lim AT

= AT lim P .

 

 

 

 

 

 

 

n→∞ n

0 n→∞

n

Учитывая обозначения пределов (6.10), (6.13), получим

 

 

 

 

 

(A )T = AT Π .

 

 

 

 

 

 

0

 

Поскольку a (0) + a

2

(0) + ... + a

k

(0) = 1

и матрица P состоит из одинаковых строк, то

1

 

 

 

 

легко понять, что A0T Π = (P )T , и равенство (6.14) доказано.

Пример 6.4. Найти предельные вероятности для цепи Маркова из примера 6.1 раздела 6.1 на урновую модель.

Поскольку матрица вероятностей перехода этой цепи (6.2) имеет вид

 

 

 

 

 

æ

 

1

2

ö

 

æ

p

p

ö

 

ç

 

 

 

 

÷

 

 

3

3

 

ç

1,1

1,2

÷

 

ç

 

÷

 

P = ç p2,1

p2,2

÷

=

ç

 

1

5

÷

,

è

 

 

ø

 

ç

 

 

 

 

÷

 

 

 

 

 

 

6

 

 

 

 

 

 

è 6

ø

 

т.е. не содержит нулевых элементов, то эта цепь удовлетворяет теореме 6.? и предельные ве- роятности существуют.

Система уравнений (6.11), (6.12) для предельных условных вероятностей в данном приме-

ре имеет вид

13 p1 + 16 p2 = p1 , 23 p1 + 56 p2 = p2 ,

p1 + p2 =1.

Поскольку первые два уравнения являются линейно зависимыми, то, отбрасывая первое из них, получим два уравнения с двумя неизвестными

23 p1 - 16 p2 = 0,

p1 + p2 =1.

Отсюда получаем p1 = 0,2, p2 = 0,8. Такими же будут и безусловные предельные вероят-

ности a1 = 0,2 , a2 = 0,8 . Это значит, что после продолжительного числа экспериментов

48

мы будем на каждом шаге вынимать белый шар с вероятностью a1 = 0,2 и черный шар с

вероятностью a2 = 0,8 .

Характеристическое уравнение для данной цепи Маркова:

 

 

 

æ

1

 

- l

 

 

1

ö

 

 

 

 

ç

 

 

 

 

 

÷

 

 

T

 

3

 

 

6

 

| P

- lI |=

ç

2

 

5

 

÷

= 0 ,

 

ç

 

 

 

 

 

÷

 

 

 

ç

 

 

 

 

 

 

- l÷

 

 

 

 

 

 

3

 

6

 

 

 

 

 

è

 

 

 

 

 

ø

 

т.е.

l2 - 76 l + 16 = 0 ,

l = 7 / 6 ±

49/36 - 4/ 6

,

1,2

2

 

 

 

λ1 = 1, λ2 = 0.1667 .

49

7.СЛУЧАЙНЫЕ ПРОЦЕССЫ С НЕЗАВИСИМЫМИ ПРИРАЩЕНИЯМИ

7.1.Процессы с некоррелированными приращениями

Будем рассматривать случайный процесс

x(t) с нулевым математическим ожиданием,

E(x(t)) = 0, и назовем величину x(t) - x(s)

для t ³ s приращениями процесса на отрезке

[ s,t ]. Будем считать, что для всех s и t дисперсия приращениями конечная:

E(ξ(t) − ξ(s))2 < ∞.

Определение 7.1. Случайный процесс x(t)

с нулевым математическим ожиданием и ко-

нечной дисперсией приращений x(t) - x(s) для всех t , s называется процессом с некорре-

лированными приращениями, если для любых t1 < t2 t3 < t4

 

E(ξ(t4 ) − ξ(t3 ))(ξ(t2 ) − ξ(t1))) = 0 .

(7.1)

Поскольку изучается процесс с нулевым математическим ожиданием, то математическое ожидание приращений такого процесса тоже равно нулю. Поэтому условие (7.1) обозначает некоррелированность приращений процесса, взятых в промежутках времени, которые не пе- ресекаются.

Если η произвольная случайная величина, то процессы x(t) + h и x(t) имеют одни и

те же приращения. Это означает, что свойство некоррелированности (7.1) сохраняется, если к

исходному процессу с некоррелированными приращениями добавить некоторую случайную величину. Мы можем, например, рассматривать процесс ξ(t) − ξ(t0 ) , принимающий значе-

ние 0 в любой фиксированный момент времени t0 и имеющий некоррелированные прира-

щения.

При анализе процессов с некоррелированными приращениями большое значение имеет

следующая функция:

 

 

 

ì

E (( x(t) - x(t0 )) 2 ), t ³ t0

,

(7.2)

F (t) = í

- E (( x(t ) - x(t0 )) 2 ), t < t0 ,

î

 

где t0 заранее выбранное число. В выражении (7.2) M ((ξ (t)-ξ(t0 )2 ) есть дисперсия при-

ращения процесса на отрезке [t0 ,t]. Функция F(t) (7.2) имеет следующие свойства.

 

1. Для всех u £ t

 

 

D(ξ(t) − ξ(u)) = E((ξ(t) − ξ(u))2 = F(t) − F(u) .

(7.3)

Эта свойство показывает, как по известной функции F(t)

найти дисперсию приращения

процесса на отрезке [u,t].

 

 

Для доказательства формулы (7.3) выберем t0 из условия

u < t0 < t . Получим

 

E((ξ(t) − ξ(u))2 ) = E(((ξ(t) − ξ(t0 )) − (ξ(u) − ξ(t0 )))2 ) =

 

= E((ξ(t) − ξ(t0 ))2 ) − 2E((ξ(t) − ξ(t0 ))(ξ(u) − ξ(t0 ))) + E((ξ(u) − ξ(t0 ))2 ) .

 

Второе слагаемое в правой части этого равенства равно нулю в силу некоррелированности приращений процесса x(t) , первое слагаемое есть F(t), а третье слагаемое равно ( - F(t) ).

Такой же вывод можно сделать при любом другом выборе момента времени t0 .

2. Функция F(t) (7.2) – неубывающая по t . Это значит, что если t ³ u , то и

F (t ) ³ F (u ) .

50

Соседние файлы в предмете [НЕСОРТИРОВАННОЕ]