Скачиваний:
261
Добавлен:
10.05.2014
Размер:
2.7 Mб
Скачать

12.2. Многомерный закон распределения мгновенных значении случайной функции и связанные с ним основные характеристики

Статистические характеристики процесса Х(t) в произвольный момент времени не дают полного описания процесса: они не отражает статистической связи между мгновенными значениями случайной функции, взятыми в разные моменты времени. Более полно случайный процесс может быть описан системой случайных величин {Хi}={X(t1), X(t2), …X(ti), …X(tn),}, отображающих значения случайного процесса в сеченияхt1, t2,...,tn. Описание случайной функции будет тем более полным, чем большее число сечений процесса будет учтено. А полной статистической характеристикой будет совместное распределение вероятности, плотность которой представляется в виде

,

где хi– значения, принимаемые случайной величинойХi.

Соотношение выражает многомерный закон распределения системы случайных величин {Хi}. Эта система при неограниченном увеличенииnэквивалента случайной функцииX(t), а многомерный (в пределе бесконечномерный) закон распределения полностью характеризует ее статистические свойства. Зависимость должна удовлетворять условию нормировки

Если рассматриваемые значения случайной функции X(t1), X(t2), …X(ti), …X(tn) статистически независимы, многомерное распределение вида распадается на произведение одномерных плотностей распределения

Однако такое упрощение закона распределения допустимо лишь в отдельных частных случаях, например, когда интервалы времени, разделяющие сечения случайной функции, настолько велики, что можно пренебречь статистическими связями между ее мгновенными значениями (процесс забывает свои предыдущие значения). Но возможна и другая ситуация. Действительно, выше уже обсуждалась теорема В.А.Котельникова, в соответствии с которой процесс, в том числе и случайный, имеет финитный спектр, ограниченный частотой Fmax, полно и однозначно представляется выборкой своих мгновенных значений, взятых с частотой 2Fmax. Это значит, что совместное распределение вероятностей размерностьюn=2FmaxT, гдеТ– длительность реализации случайного процессаX(t), полностью определяет этот процесс в статистическом смысле.

Многомерному закону распределения соответствует совокупность смешанных моментов, или моментных функций, которая характеризует случайную функцию.

Многомерная плотность распределения вероятностей позволяет найти одномерную плотность вероятности w(xi) случайной функции в любом сеченииt1интегрированием по всемх, кромехi

.

Обратное не верно, т.е. многомерную плотность вероятности по одномерной найти невозможно, за исключением случая, когда применима формула .

Используя можно вычислить вероятность того, что случайные величины Х1,Х2, …Хnпримут значения в интервалах,, …. Эта вероятность равна

Интервал образует трубку ширинойхоколо выборочных значений реализации случайного процесса, как на рис. Таким образом, указывает вероятность, с которой реализация случайного процессаX(t) уложится в полосу, обозначенную на рис. 12.3,аесть плотность вероятности такой реализации.

Рис.12.3. Вероятность реализации случайного процесса

Исчерпывающее определение случайного процесса можно осуществить с помощью многомерного (в пределе бесконечномерного) закона распределения его мгновенных значений. Однако получение таких законов и использование их связано с большими трудностями. Кроме того, в большинстве практически важных задач приходится иметь дело с так называемыми процессами без последействия. Для этого класса процессов характерно то, что статистическая закономерность поведения случайной функции на интервале времени целиком определяется значением функции в начале интервала и его продолжительностью. Предыстория процесса, т.е. поведение функции до начала интервала наблюдения, роли не играет.

Таким образом, для процесса без последействия характерна зависимость вероятности распределения случайной величины Xi=X(ti) только от значенияxi-1, принятого случайной функцией в предшествующий заданный моментti-1. Такую вероятность принято называть условной и обозначатьP(xi|xi-1). Значениях приt<ti-1на условную вероятностьP(xi|xi-1) не влияют.

Величина интервала titi-1определяет статистическую связь между мгновенными значениями в рассматриваемых сечениях, поэтому от нее также зависит условная вероятность. Учитывая, что при таком подходе вся последовательность мгновенных значений случайного процесса в заданных и произвольно расположенных на оси времени сечениях образует цепь событий, статистически попарно связанных, можно записатьn-мерную плотность вероятности в следующем виде:

,

где – плотность вероятности перехода случайной функцииX(t) от значенияxi-1кxi. Плотность условной вероятностив общем случае является функцией времени. Если процесс стационарен,

Когда, кроме того, все интервалы между сечениями равны, т.е. ,

.

В соответствии с теоремой Байеса плотность условной вероятности может быть; представлена соотношением

,

где – совместная (двумерная) плотность вероятности двух случайных величинX(ti-1) иX(ti);– безусловная (одномерная) плотность вероятности величиныX(ti-1). Из и следует, что

.

Формула показывает, что для получения исчерпывающей характеристики случайного процесса без последействия, т.е. многомерного (в пределе – бесконечномерного) закона распределения, достаточно задать ее двумерный закон распределения , поскольку числитель выражения содержит произведение таких сомножителей. Одномерные плотности вероятностей, образующие знаменатель, могут быть получены также из двумерных в соответствии с .

Как уже говорилось, частичное описание свойств случайного процесса может быть дано при помощи неслучайных функций времени M1(t) и2(t). Недостаточность только таких характеристик хорошо видна из сопоставления двух процессов, заданных ансамблями их реализаций и представленных на рис. 12.5.

Рис. 12.5. Нестационарные случайные процессы

Из рис. 12.5, аиб видно, что процессы имеют приблизительно одинаковые средние значенияM1(t) и дисперсии2(t). Однако характеры протекания этих процессов во времени и их внутренние структуры существенно различны. В первом преобладают медленные изменения во времени, во втором – более быстрые. Таким образом, среднее значение и дисперсия не отражают структуры случайного процесса, быстроты его протекания. Быстрота изменения случайной функции может характеризоваться степенью статистической связи мгновенных значений, взятых в различные моменты времени. Количественно эта связь устанавливается корреляционным моментом

двух случайных величин X(t1)=X1иХ(t2)=Х2.

Подробнее символическая запись может быть представлена в виде

.

Выражения и показывают, что для вычисления корреляционного момента необходимо располагать двумерным законом распределения. Эти выражения, в отличие от их числовых аналогов в теории вероятностей, являются функциями двух переменных t1иt2и потому называются корреляционными или автокорреляционными функциями.

Величина корреляционного момента двух случайных величин не зависит от последовательности, в которой эти величины рассматриваются. Вследствие этого корреляционная функция симметрична относительно t1иt2, т.е.

.

Поскольку корреляционная функция отражает статистическую связь между значениями одной и той же случайной функции, взятыми в моменты t1иt2, она убывает (не возрасиает) с ростом интервалаt2-t1.

Из и следует, что при t1=t2= t функция корреляции численно совпадает с дисперсией2(t). Это означает, что корреляционная функция является более полной характеристикой случайного процесса, чем дисперсия, включающей ее как частный случай.

При анализе случайных процессов часто вводят понятие нормированной функции автокорреляции

.

Из следует, что при t1=t2

.

Кроме функции корреляции используют более простую и грубую характеристику корреляционной связи значений случайного процесса. Это интервал корреляции, под которым понимают такое значение =t2-t1, при котором

,

где – некоторая заданная величина.

Выбор величины может зависеть от условий поставленной задачи. Введение этого понятия позволяет приближенно считать мгновенные значения случайного процессаX(t1) иХ(t2) приt2-t1некоррелированными.

Корреляционную функцию, построенную для двух случайных процессов X(t) иY(t) и устанавливающую статистическую связь между ними, называют функцией взаимной корреляции.

Пусть две случайные функции X(t) иY(t) заданы совокупностями своих реализаций. Для отдельно взятыхX(t) иY(t) могут быть построены их автокорреляционные функцииKx(t1,t2) иKy(t1,t2). Статистическая связь между процессами может быть оценена с помощью взаимных корреляционных функций:

и

.

При t1=t2взаимные корреляционные функции принимают значение мощности взаимодействия отклонений случайных процессовX(t) иY(t) от их средних значений:Rxy(t,t)=Ryx(t,t)=xy(t).

Аналогично может быть введено понятие нормированной функции взаимной корреляции

Два процесса называют некоррелированным и, если их функция взаимной корреляции равна нулю при любых значениях аргумента, т.е. xy=0. Это означает, что некоррелированные процессы энергетически не взаимодействуют.

Если для функции корреляции допустимо тождество

,

то для автокорреляционной функции такое утверждение неверно. Автокорреляционная функция убывает с неограниченным ростом интервалаt2-t1. Приt1=t2=tее значение совпадает с дисперсией. Следовательно, автокорреляционная функция реального случайного процесса может быть сколь угодно близкой к нулю при любых значениях аргументов, исключая их равные значения.

Для нахождения Kxy иKyx, а такжеKx иKv процессыX(t) иY(t) должны быть заданы ансамблями своих реализаций или совместным распределениемw4(x1,х2,у1,у2) для любых пар моментов времени. Таким образом, статистические связи случайных процессовX(t) иY(t), как внутренние, так и взаимные, характеризуются четырьмя функциями

Kx(tl,t2) иKy(tl,t2),Kxy(t1,t2) иRux(t1,t2).

Соседние файлы в папке РАДИОТЕХНИЧЕСКИЕ ОСНОВЫ СИСТЕМ И СРЕДСТВ ЗАЩИТЫ ИНФОРМАЦИИ