Добавил:
Upload Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:
метод2.doc
Скачиваний:
27
Добавлен:
02.04.2015
Размер:
649.73 Кб
Скачать
    1. Контрольные вопросы

  1. Почему последовательность случайных величин, получаемая на компьютере, называется псевдослучайной?

  2. Что такое стандартизованная гауссовская случайная величина? Как из нее может быть получена гауссовская случайная величина с заданными математическим ожиданием и дисперсией?

  3. Что такое выборочные математическое ожидание и дисперсия, как они рассчитываются?

  4. Что такое медиана распределения? Что такое выборочная медиана?

  5. Что такое гистограмма? Оценку какой характеристики случайной величины можно получить на ее основе?

  6. Поясните, как получить реализации случайного вектора с недиагональной матрицей ковариаций.

  7. Как из вектора с коррелированными компонентами может быть получен вектор с некоррелированными компонентами?

  8. Что такое среднеквадратический эллипс ошибок? Какими параметрами он характеризуется?

  9. Что представляет собой проекция двумерного центрированного гауссовского вектора на заданное направление?

  10. Приведите примеры задач обработки навигационной информации, при постановке которых вводятся в рассмотрение двумерные случайные векторы.

  1. Методы оценивания постоянных параметров наблюдаемых сигналов

Цель работы: изучение основных принципов и подходов, используемых при построении алгоритмов оценивания.

    1. Основные теоретические сведения

При обработке навигационной информации часто приходится сталкиваться с задачами оценивания неизвестных постоянных параметров. К таким задачам можно отнести начальную выставку инерциальной вертикали, нахождение параметров тренда навигационных датчиков, определение параметров сигналов радионавигационных систем, определение координат по измерениям дальностей до точечных ориентиров и другие.

Все упомянутые задачи могут быть сведены по своей постановке к задаче оценивания постоянного вектора, наблюдаемого на фоне ошибок измерения. Используемые подходы и методы построения алгоритмов в значительной степени зависят от уровня привлекаемой информации об оцениваемом векторе и ошибках измерения [2,3].

Если предположение о случайном характере оцениваемого вектора и ошибок измерения не вводится, построение алгоритмов осуществляется в рамках детерминированного подхода. Такие алгоритмы преимущественно основаны на методе наименьших квадратов и минимизации критериев, характеризующих меру близости между измеряемыми величинами и их вычисленными значениями.

Если вводится предположение о случайном характере только лишь ошибок измерения, алгоритмы строятся в рамках классического, или небайесовского, подхода. Свойства ошибок задаются с помощью соответствующей функции плотности распределения вероятностей, порождающей функцию правдоподобия, играющую важную роль при построении алгоритмов.

Наконец, если случайными считаются как сам оцениваемый вектор, так и ошибки измерения, построение алгоритмов осуществляется в рамках байесовского подхода, основанного на минимизации среднего квадрата ошибки оценивания.

Рассмотрим более детально алгоритмы, основанные на методе наименьших квадратов, применительно к линейной задаче оценивания. Пусть задан n-мерный вектор оцениваемых параметров x = (x xn)Т и имеется m-мерный вектор измерений y = (y ym)Т,

y = Hx + v, (7)

где v = (v vm)Т – вектор ошибок измерения, H – матрица наблюдения.

Метод наименьших квадратов заключается в минимизации критерия

, (8)

соответствующая ему оценка будет иметь вид

.

Достоинство МНК заключается в том, что на этапе синтеза алгоритмов не привлекается какая-либо априорная информация статистического характера. Однако ее отсутствие затрудняет решения задачи анализа точности. Такая возможность открывается, если ввести предположение о случайном характере ошибок измерения. В частности, если ошибки измерения являются центрированными случайными величинами, для которых определена матрица ковариаций R, ошибки оценок для МНК также будут центрированными с матрицей ковариаций

.

Вместо (8) в качестве наблюдаемого критерия может быть использована функция

, (9)

в которой Q – некоторая симметричная неотрицательно определенная матрица. Обычно матрицу Q выбирают диагональной с элементами qi; тогда

.

Смысл введения весовой матрицы Q в том, чтобы обеспечить возможность по-разному учитывать вклад отличий измеренных и вычисленных значений, соответствующих различным компонентам вектора измерений. В этом случае говорят об обобщенном методе наименьших квадратов (ОМНК).

Оценки ОМНК могут быть записаны как

.

При заданной матрице ковариаций ошибок измерений R весовую матрицу Q обычно принимают равной Q = R–1; в этом случае выражение для матрицы ковариаций ошибок оценок для ОМНК имеет вид

.

В наиболее общем случае в качестве наблюдаемого критерия можно использовать функцию

, (10)

где ,D – соответственно некоторый известный вектор и некоторая симметричная неотрицательно определенная матрица. Метод, основанный на минимизации критерия (10), называют модифицированным методом наименьших квадратов (ММНК). Оценка ММНК имеет вид

,

где

.

В линейной задаче оценивания при отсутствии корреляции между оцениваемым вектором и вектором ошибок измерения и выборе в качестве математического ожидания вектораx, а в качестве матриц D, Q – соответственно ,Q = R–1, где P0 – априорная матрица ковариаций вектора x, оценки ММНК совпадают с линейными байесовскими оценками, оптимальными в среднеквадратическом смысле. Матрица ковариаций ошибок оценок в этом случае равна

.

Следует отметить тот факт, что алгоритм вычисления линейных байесовских оценок в линейной задаче не зависит от вида совместной плотности распределения вероятностей оцениваемого вектора и ошибок измерений и полностью определяется первыми двумя моментами (математическим ожиданием и матрицей ковариаций).

Сопоставление алгоритмов оценивания проведем на примере задачи оценивания коэффициентов полинома (линейного либо квадратичного тренда). В случае квадратичного тренда измерения yk имеют вид

, (11)

где xj – искомые коэффициенты полинома, представляющие собой независимые между собой центрированные случайные величины с дисперсиями ,vk – ошибки измерения, представляющие собой независимые между собой и от xj центрированные случайные величины с дисперсиями ;tk = (k – 1)t – текущее время от начала наблюдения; tT/m – период дискретности; T – t –полное время наблюдения.

Уравнения (11) могут быть представлены в векторно-матричной форме (7), где x = (x0  x1  x2)Т,

.

При построении алгоритмов оценивания может дополнительно привлекаться информация о матрице ковариаций ошибок измерений R = r2E, а также матрице ковариаций оцениваемого вектора .

Пример моделирования задачи оценивания параметров квадратичного тренда приведен в Приложении 1.