Добавил:
Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:
Лабораторная работа 1.doc
Скачиваний:
46
Добавлен:
01.05.2014
Размер:
195.07 Кб
Скачать

Федеральное агентство по образованию РФ

Санкт-Петербургский государственный электротехнический университет

Кафедра МО ЭВМ

Отчет по лабораторной работе № 1

Рекуррентные процедуры оценивания параметров сигнала

по методу наименьших квадратов

Преподаватель:

Студент гр. 4351 Кузьменко А.

Санкт-Петербург

2007

Лабораторная работа № 1.

Рекуррентные процедуры оценивания параметров сигнала

по методу наименьших квадратов.

    1. Постановка задачи оценивания параметров сигнала

В известные последовательные моменты дискретного времени на обработку поступают измерения значений сигнала. Сигнал является функцией известного вида от времени и нескольких неизвестных параметров. Измерения содержат случайный аддитивный шум (ошибки измерений). Требуется по имеющимся измерениям определить (оценить) значения неизвестных параметров сигнала. Оценивание параметров должно выполняться последовательно по мере поступления новых измерений.

Последовательность z1, z2, ..., zN поступающих на обработку скалярных измерений значений сигнала описывается соотношением

zk = hk(X) + vk, k = 1, 2, ..., N, (1.1)

где k - номер момента tk времени поступления измерения zk; X = [x1 x2 … xn]T - n - вектор неизвестных параметров сигнала; hk(X) - известная функция связи измерений и параметров сигнала в момент времени tk; vk - реализация случайной ошибки измерений, некоррелированной с ошибками измерений в другие моменты времени, обладающей нулевым средним и известной дисперсией: M{vk} = 0; M{} = 2; M{vkvj} = 0 при k  j; k, j = 1, 2, … , N. Здесь M{.} - математическое ожидание. Модель полезного сигнала, описываемая функцией hk(X), может, например, иметь вид s(tk) = x1 + x2 sin(x3tk + x4) или и т.п.

В ряде практических задач модель сигнала линейная относительно параметров. В этом случае соотношение (1.1) приобретает вид

zk = hkX + vk , k = 1, 2, ..., N, (1.2)

где hk = (hk1 hk2 ... hkn) - известная (1 * n)-матрица связи измерений и параметров. Примерами такой модели могут, в частности, служить полиномиальная

s(tk) = hk X = x1 + x2 tk + … +

или гармоническая

s(tk) = hk X = x1 sin (1 tk) + … + xn sin (n tk)

модели, где 1, … ,n - известные величины.

Требуется после получения каждого следующего измерения zk вычислять новую (более точную) оценку вектора неизвестных параметров сигнала X таким образом, чтобы минимизировать сумму квадратов невязок измерений

(1.3)

или в линейном случае

. (1.4)

1.2. Основные соотношения метода наименьших квадратов

В случае линейной модели сигнала (1.2) минимизация по Х функции Jk из соотношения (1.4) приводит к следующему выражению для оценки наименьших квадратов

(1.5)

где Hk - (k*n) - матрица вида , а Zk = - вектор проведенных измерений.

Из последнего выражения видно, что оценка линейна относительно измерений и для ее вычисления не требуется знание точности измерений (дисперсии ошибок измерений).

Формула (1.5) в принципе может быть использована для вычисления оценки вектора неизвестных параметров сигнала при получении каждого нового измерения, начиная с k = n. Однако такой способ получения оценки обладает рядом недостатков. К ним относятся необходимость накопления и хранения всех, полученных к данному моменту времени измерений, большой объем вычислений, обусловленный необходимостью обращения на каждом шаге матрицы порядка n. Кроме того, во многих случаях обращаемая матрица оказывается плохо обусловленной, что может приводить к быстрому накоплению ошибок округления и к получению оценок, содержащих неприемлемо большие ошибки. Существенно более экономным по требуемым ресурсам памяти и быстродействия ЭВМ является рекуррентный алгоритм МНК, описываемый следующими соотношениями:

; (1.6)

; (1.7)

Qk = Qk-1 – KkhkQk-1, (1.8)

где - (n*n) - матрица, рекуррентное вычисление которой по формулам (1.7), (1.8) не требует выполнения операции обращения матриц; вектор Кk называется оптимальным весовым вектором. Согласно этим соотношениям, новая оценка, использующая информацию о предыдущих k измерениях, определяется в виде суммы старой оценки , использующей информацию о предыдущих k-1 измерениях, и линейного поправочного члена - невязки k-го измерения (zk - hk), взятой с весом Кk. Если известна дисперсия ошибок измерений 2, то ковариационная матрица Рk, характеризующая точность оценки , легко может быть вычислена по матрице Qk следующим образом: Pk = 2Qk. (1.9)

Для реализации процесса рекуррентного оценивания параметров сигнала в соответствии с (1.6) - (1.8) необходимо иметь начальные оценку и матрицу Q0 или (Р0). Эти значения иногда могут быть определены из априорных соображений. Если же эти начальные условия, как чаще всего бывает, неизвестны, то их можно получить, обработав первые n измерений по формуле (1.5) (при этом ). Другой способ заключается в использовании следующих начальных условий: = 0 и Q0 = cI, где I - единичная матрица, а c = const и c >> 1. Можно показать, что при c   оба способа оказываются математически эквивалентными. В лабораторной работе будет использоваться только второй способ задания начальных условий. Для линейных моделей сигнала получаемые с помощью алгоритма (1.5) или (1.6) - (1.8) оценки наименьших квадратов обладают следующими важными свойствами. При выполнении предположений об ошибках измерений, которые были указаны выше, эти оценки являются несмещенными и обладают минимальной дисперсией среди всех оценок, являющихся линейными функциями измерений. Если к тому же распределение вероятностей ошибок измерений гауссовское (нормальное), то эти оценки будут иметь минимальную дисперсию среди всех возможных оценок, являющихся произвольными, а не только линейными функциями измерений. Как уже отмечалось, вследствие того, что все вычисления реализуются на ЭВМ с конечной разрядной сеткой, в ряде случаев возможно быстрое накопление ошибок округления и получение оценок неизвестных параметров с ошибками, намного превышающими их теоретические характеристики, описываемые ковариационной матрицей (1.9). В последнем случае говорят о вычислительной неустойчивости алгоритма (или расходимости процесса оценивания). Степень вычислительной устойчивости алгоритма зависит от длины разрядной сети ЭВМ (мантиссы) и от вида модели сигнала (матриц hk). При фиксированных моделях (функциях времени, определяющих элементы матриц hk) и разрядной сетке на устойчивость к ошибкам округления могут влиять количество измерений, длина tN - t0 интервала сеанса измерений, а также положение этого интервала на вещественной оси, определяемое значением t0. Кроме того, к потере вычислительной устойчивости может приводить выбор слишком большого значения с для начального значения матрицы Q0 = cI в рекуррентном алгоритме. В общем случае вычислительная устойчивость рекуррентного алгоритма (1.6) - (1.8) и алгоритма МНК по полной выборке (1.5) примерно одинаковы. Однако на основе рекуррентного алгоритма можно реализовать один из самых простых и быстрых способов обеспечения вычислительной устойчивости. Это достигается ценой некоторого загрубления оценок параметров путем искусственного увеличения диагонали матрицы Qk. С этой целью соотношение (1.8) в рекуррентном алгоритме заменяется на следующее

Qk = Qk-1 – Kk hk Qk-1 +  Qk-1, (1.10)

где  , либо еще проще Qk-1 = qI, где q - эмпирически подбираемый коэффициент демпфирования ошибок округления; I - единичная матрица. При q = 0 соотношение (1.10) совпадает с (1.8).

Таким образом, из-за нарушения вычислительной устойчивости возможна потеря теоретически существующих свойств оценок наименьших квадратов. Аналогичная потеря свойств возможна и вследствие неадекватности реальному сигналу используемой в алгоритме модели. Простейшим примером такой неадекватности, который будет рассмотрен в лабораторной работе, является меньшая, чем наблюдается на самом деле, размерность оцениваемого вектора неизвестных параметров. Даже если вклад не учитываемого параметра невелик, при достаточно длительном сеансе измерений ошибка в задании размерности вектора неизвестных параметров проявит себя негативным образом.

В случае нелинейной модели сигнала (1.1) требуется минимизировать по Х выражение (1.3). Точное решение этой оптимизационной задачи в общем случае затруднительно. Сравнительно просто может быть получено ее приближенное решение, если известна начальная оценка нелинейной функции hk(Х) и применение к линеаризованной модели рекуррентного метода наименьших квадратов дает следующую систему соотношений:

(1.11)

(1.12) (1.13)

где - демпфирующая матрица, которая может рассчитываться так же, как и в линейном случае. Здесь матрица Qk-1 предназначена для "демпфирования" влияния не только ошибок округления, но и ошибок линеаризации. Полученная система соотношений (1.11) - (1.13) называется рекуррентным линеаризированным алгоритмом МНК. Вычисление для этого случая матрицы Рk по формуле (1.9) дает не ковариационную матрицу оценки Хk, а лишь ее приблизительное значение. Отметим, что в линейном случае, когда hk(Х) = hk Х, соотношения (1.11) - (1.13) превращаются в (1.6), (1.7), (1.10).

Особо следует обратить внимание на то, что описанные для линейной задачи способы получения начальных условий   и Р0  в нелинейном случае неприменимы. В нелинейной задаче необходимы априорная оценка , достаточно близкая к Х, и ее ковариационная матрица Р0 . В настоящей лабораторной работе полагается Р0 = cI, где с >> 1 - дисперсия компонентов ошибки задания начальной оценки . Отметим также, что оценки, вычисляемые алгоритмом (2.11) - (2.13), в нелинейном случае, вообще говоря, не обладают свойствами несмещенности и минимальности дисперсий.