Добавил:
Upload Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:
Держіспит Матеріали.doc
Скачиваний:
1
Добавлен:
24.08.2019
Размер:
324.1 Кб
Скачать

13. Ідентифікація моделей і задача апроксимації. Методи апроксимації даних

Пусть имеется зависимость y=f(x) , представленная таблицей, которая содержит n значений. Пусть, кроме того, задана функция, содержащая m +1 параметров (аппроксимирующая функция):

y = F(x; a0, a1, … , am) . (1)

Задачей аппроксимации является определение таких значений параметров аппроксимирующей функции, которые обеспечивают наилучшее согласие между нею и заданной таблицей f(x).

Аппроксимирующая функция обычно имеет смысл математической модели некоторого элемента системы, а сама задача аппроксимации называется в этом случае задачей идентификации параметров модели.

В качестве критерия согласия обычно используют сумму квадратов отклонений:

. (2)

В этом случае иногда говорят, что задача решается методом наименьших квадратов (метод НК).

Таким образом, задача аппроксимации в общем случае сводится к задаче многомерной оптимизации. Основными методами для решения такой задачи являются:

- метод покоординатного спуска;

- метод градиента (наискорейшего спуска);

- метод Ньютона (параболической экстраполяции);

- метод вложенных алгоритмов (декомпозиции).

Неприятной особенностью задачи оптимизации, к которой сводится задача аппроксимации, может быть часто наблюдаемая для нелинейных моделей овражность целевой функции.

Линейная аппроксимация. Линеаризация

Пусть имеется линейная модель

.

и таблица зависимости y = f(x) . Из приведенных выше сведений следует, что параметры a0, a1 можно определить путем решения системы уравнений:

g00a0 + g01a1 = b0

g10a0 + g11a1 = b1

где

Линеаризация

Нередко бывает так, что модель является нелинейной, но путем удачной замены переменных ее можно преобразовать в линейную. Такую процедуру называют линеаризацией. Ниже приведены несколько таких примеров для зависимости z(t):

1. ,

2. ,

3. ,

4. .

Во всех приведенных примерах p, r - искомые параметры.

14. Моделювання стаціонарних систем. Нелінійні системи

Стационарное состояние системы моделируется системой нелинейных уравнений. Если имеем систему с локализованными свойствами, тогда модель представляет собой систему нелинейных конечных (не дифференциальных) уравнений. Если моделируется система с распределенными свойствами, тогда матем. модель будет представлять собой систему дифференциальных уравнений в частных производных (без времени). Рассмотрим методы решения конечных уравнений и их систем, используемые в моделировании.

Метод бисекций

Для этого метода характерны слабые требования для функции F(x): требуется лишь ее непрерывность. Кроме того, должен быть определен отрезок [a,b] такой, что F(a)F(b) < 0 . При этих условиях сходимость итерационного процесса гарантируется.

Пример уравнения, которое не решается методом бисекций:

(x-a)2 = 0 .

Пусть [a,b] - начальный отрезок. Абсолютная a и относительная r погрешности получаемого решения связаны соотношением:

a = r (b-a) .

Число обращений к процедуре вычисления F(x), необходимое для получения относительной погрешности r равно:

Методы хорд и случайного поиска в среднем имеют такие же характеристики, как и метод бисекций.

Метод Ньютона

Этот метод требует непрерывность функции F(x) и ее производной. Для начала работы итерационного процесса необходимо задать начальное приближение x0. При этом точка x0 должна принадлежать области сходимости, которая определяется свойствами функции F(x).

Область сходимости представляет собой некоторую окрестность точки - точного решения уравнения.

В отличие от метода бисекций, отсутствует возможность контроля абсолютной погрешности получаемого решения. В качестве меры погрешности используются величины f, x , а соответствующие условия завершения итераций имеют вид:

|F(xk)| < f ,

|xk+1 – xk| < x .

При наличии сходимости, скорость сходимости очень высока.

Метод итераций

Преобразуем (если это возможно) уравнение (1) к следующему виду:

x = G(x) .

Запишем итерационную формулу следующим образом:

.

Метод решения уравнения, основанный на использовании последней итерационной формулы, называется методом итераций.

Пусть x – искомое решение, а x0 – начальное приближение. Критерием сходимости процедуры (5) является условие

x[x0,x]: |G(x)|<1 .

Для контроля погрешности используются такие же условия, как и для метода Ньютона.

Системы нелинейных уравнений

Рассмотрим методы решения систем уравнений вида:

F(x) = 0 .

Метод Ньютона и его модификации. Проблема вырождения

Пусть k - номер приближения, обозначим через k вектор-приращения для k-того шага:

k+1 = xk+1 - xk .

Величина вектора-приращения находится путем решения СЛУ следующего вида:

P(xk) k+1 = -F(xk) ,

где P(xk) - матрица Якоби для системы уравнений в точке xk .

Область сходимости

Областью сходимости является R-окрестность точки в пространстве Rn , обладающая свойством: метод сходится к решению.

В общем случае чем точнее выбрано начальное приближение, тем выше вероятность попадания в область сходимости.

Метод Ньютона-Рафсона

Итерационная формула содержит дополнительный параметр k:

,

который называется шаговый множитель. Он выбирается из интервала [0,1]. С уменьшением величины шагового множителя область сходимости расширяется, однако скорость сходимости при этом падает.

Проблема вырождения

В некоторых случаях при выполнении очередного шага может оказаться, что определитель матрицы Якоби равен нулю (вырождение системы). Тогда дальнейший счет по формуле (2) становится невозможным. Вырождение системы может порождаться не только свойствами самой системы, но и машинной погрешностью. Вообще вырождение обычно имеет место для т.н. жестких систем.

Контроль погрешности

Также, как и в случае решения одного уравнения итерационным методом, условие завершения итераций можно записать одним из двух способов:

1) ,

2) .

Здесь k - номер итерации, i - номер компонента соответствующего вектора.

Метод градиента

Пусть имеем задачу (5.6.1). Рассмотрим следующую функцию:

.

Решению исходной системы уравнений соответствует точка минимума последней функции. Задача, таким образом, сводится к задаче многомерной оптимизации. Для ее решения часто используют метод градиента (метод кратчайшего спуска), который будет рассмотрен далее.