Добавил:
Upload Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:
Сальников_ОТС_Часть-2.doc
Скачиваний:
132
Добавлен:
03.05.2015
Размер:
4.26 Mб
Скачать

Равномерное Нормальное (гауссовское) Распределение дискретной случайной величины

И

F(x)

1

x

x1 x2 x3 x4

w(x)

x

x1 x2 x3 x4

нформация о сечениях СП не является достаточной для описания самого СП, так как не содержит сведений о зависимостях сечений между собой. Исчерпывающее описание СП осуществляется с помощьюn-мерной функции распределения

или n-мерной плотности вероятности

,

где x1, x2…, xn – аргументы, t1, t2…, tn – параметры этих функций, а nлюбое целое число.

Если n-мерная функция распределения (плотность вероятности) СП не меняется при сдвиге всех моментов tk (k = 1, 2, …, n) на один и тот же интервал t, то такой процесс называют стационарным в узком смысле.

4.2. Сокращенное описание случайных процессов

Полное описание СП не всегда возможно, да и не всегда требуется. Во многих случаях достаточно знать основные его характеристики. В качестве таковых широко используют:

  1. Математическое ожидание СП – начальный момент первого порядка

  1. Дисперсия СП – центральный момент второго порядка

Здесь использовано понятие центрированного СП .

  1. В общем случае можно использовать моменты k-го порядка:

начальные

,

центральные

.

Нетрудно видеть, что моменты полностью определяются одномерным распределением и в общем случае произвольного СП являются детерминированными функциями времени. Для стационарных в узком смысле СП моменты от времени не зависят.

  1. Корреляционная (автокорреляционная) функция – центральный смешанный момент второго порядка

.

Случайные процессы называют стационарными в широком смысле, если выполняются следующие условия:

,

,

, где τ = t2t1

Очевидно, что стационарность СП в узком смысле влечет его стационарность в широком смысле, но не наоборот.

Некоторые свойства корреляционной функции сп:

1.

2.

Доказательство:

,

откуда следует вышеуказанное неравенство

3. Корреляционная функция характеризует статистическую связь сечений СП (внутри процесса). Если связи между сечениями инет (сечения статистически независимы), то.

Доказательство:

.

Отсутствие связи влечет отсутствие корреляции, но не наоборот. Обратное утверждение справедливо лишь в случае нормального (гауссовского) процесса.

Нормальным называют СП, у которого одномерная плотность вероятности имеет вид

,

где ,,

а любая n-мерная плотность вероятности описывается выражением

,

где An, cij, ai, aj – константы, определяемые выбором сечений t1,t2,,,tn.

4. Корреляционная функция стационарного случайного процесса является четной .

Доказательство:

.

Подставляя , получим

.

5. Чтобы абстрагироваться от дисперсии и учитывать только связи внутри СП удобно пользоваться нормированной функцией корреляции (коэффициентом корреляции)

.

Очевидно, что .

6. Интервал корреляции – грубую числовую оценку связи внутри СП – чаще всего определяют методом равновеликого прямоугольника

.

7. Взаимная корреляционная функция двух процессов X(t) и Y(t)

.

8. Корреляционная функция суммы независимых случайных процессов есть сумма корреляционных функций каждого из слагаемых СП в отдельности

Доказательство:

.

Вместо усреднения по множеству реализаций случайного процесса можно ввести его усреднение по времени, определяя:

- постоянную составляющую СП,

- переменную составляющую СП,

- мощность переменной состав-

ляющей СП.

Нетрудно видеть, что эти характеристики являются случайными величинами, не зависящими от времени.

Случайные стационарные процессы называютэргодическими, если их усреднение по множеству и по времени приводит к одинаковым результатам:

Э

,

ргодическое свойство СП заключается, грубо говоря, в том, что все его реализации «похожи» друг на друга. Отсюда следует возможность получения вышеуказанных характеристик эргодического СП усреднением по времени единственной его реализацииx(t), что существенно облегчает построение аппаратуры для их измерений. В частности, функцию корреляции эргодического СП можно вычислить по одной реализации с помощью следующего выражения:

из которого вытекает схема коррелометра, приведенная на рис. 4.2.