Добавил:
Upload Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:
Лекция 01-02.doc
Скачиваний:
42
Добавлен:
06.12.2018
Размер:
248.32 Кб
Скачать

8

Лекция №1-2

Элементы теории погрешности Устранимые и неустранимые ошибки

При численном решении математических и прикладных задач почти неизбежно появление на том или ином этапе их решения погрешностей следующих трех типов.

1) Погрешность задачи.

Она связана с приближенным характером исходной содержательной модели (в частности, с невозможностью учесть все факторы в процессе изучения моделируемого явления), а также ее математического описания, параметрами которого служат обычно приближенные числа (например, из-за принципиальной невозможности выполнения абсолютно точных измерений). Для вычислителя погрешность задачи следует считать неустранимой (безусловной), хотя постановщик задачи иногда может ее изменить.

2) Погрешность метода.

Это погрешность, связанная со способом решения поставленной математической задачи и появляющаяся в результате подмены исходной математической модели другой или конечной последовательностью других, например, линейных моделей. При создании численных методов закладывается возможность отслеживания таких погрешностей и доведения их до сколь угодно малого уровня. Отсюда естественно отношение к погрешности метода как к устранимой (или условной).

3) Погрешность округлений (погрешность действий).

Этот тип погрешностей обусловлен необходимостью выполнять арифметические операции над числами, усеченными до количества разрядов, зависящего от применяемой вычислительной техники (если, разумеется, не используются специальные программные средства, реализующие, например, арифметику рациональных чисел).

Все три описанных типа погрешностей в сумме дают полную погрешность результата решения задачи. Поскольку первый тип погрешностей не находится в пределах компетенции вычислителя, для него он служит лишь ориентиром точности, с которой следует рассчитывать математическую модель. Нет смысла решать задачу существенно точнее, чем это диктуется неопределенностью исходных данных. Таким образом, погрешность метода подчиняют погрешности задачи. Наконец, при выводе оценок погрешностей численных методов обычно исходят из предположения, что все операции над числами выполняются точно. Это означает, что погрешность округлений не должна существенно отражаться на результатах реализации методов, т.е. должна подчиняться погрешности метода. Влияние погрешностей округлений не следует упускать из вида ни на стадии отбора и алгоритмизации численных методов, ни при выборе вычислительных и программных средств, ни при выполнении отдельных действий и вычислении значений функций.

Погрешность вычислений

Пусть A и а — два «близких» числа; условимся считать A — точным, а — приближенным.

Определение 1. Абсолютная и относительная погрешность.

Величина Δa = |A – а| называется абсолютной погрешностью приближенного числа а, а его относительной погрешностью. Числа Δa и δa такие, что aa и , называются оценками или границами абсолютной и относительной погрешностей соответственно (к Δa и δa часто применяют также термин «предельные погрешности»).

Так как обычно истинные погрешности не известны, то там, где не может возникнуть недоразумений, будем иногда называть Δa и δa просто абсолютной и относительной погрешностями.

Определение 2. Значащие цифры.

Значащими цифрами числа называют все цифры в его записи, начиная с первой ненулевой слева.

Пример 1. Значащие цифры.

У чисел a = 0,03045, а = 0,03045000 значащими цифрами являются подчеркнутые цифры. Число значащих цифр в первом случае равно 4, во втором — 7.

Определение 3. Верная цифра.

Значащую цифру называют верной, если абсолютная погрешность числа не превосходит единицы разряда, соответствующего этой цифре.

Пример 2. Верная цифра.

а = 0,03045, Δa = 0,000003; а = 0,03045000, Δa = 0,0000007; подчеркнутые цифры являются верными.

Определение 4. Все верные цифры.

Если все значащие цифры верные, то говорят, что число записано со всеми верными цифрами.

Пример 3. Все верные цифры.

При a = 0,03045, Δa = 0,000003 число a записано со всеми верными цифрами.

Поставим вопрос о грубом оценивании погрешности результата вычисления значения дифференцируемой функции u = f(x1, x2, …, xn) приближенных аргументов x1, x2, …, xn, если известны границы их абсолютных погрешностей , , …, , соответственно. В этом случае точные значения аргументов , , …, лежат соответственно на отрезках , , …, , а точная абсолютная погрешность результата u = f(x1, x2, …, xn) есть

модуль полного приращения функции. Главной, т.е. линейной частью этого приращения является, как известно, полный дифференциал du. Таким образом, имеем:

,

т.е. за границу абсолютной погрешности результата приближенно может быть принята величина

. (1)

Отсюда легко получается формула приближенной оценки относительной погрешности значения u:

. (2)

Как частные случаи формул (1), (2) (точных для функций, линейных относительно xi или ln xi соответственно) можно получить известные правила оценивания погрешностей результатов арифметических действий.

Действительно, пусть u =  x1  x2  …  xn. Тогда и , т.е. при сложении и вычитании приближенных чисел их предельные абсолютные погрешности складываются.

Пусть теперь u = x1  x2  …  xn, где можно считать все сомножители положительными. Так как ln u = ln x1 + ln x2 + … + ln xn и , то, согласно (2),

(3)

Если же , где x1, x2 > 0, то ln u = ln x1 – ln x2, и, значит,

Последнее вместе с (3) означает известный результат о сложении предельных относительных погрешностей при умножении и делении приближенных чисел.

Возвращаясь к сложению, рассмотрим относительную погрешность суммы n положительных приближенных чисел x1, x2, …, xn, имеющих границы относительных погрешностей , , …, соответственно:

,

где . Полученное неравенство говорит о том, что относительная погрешность суммы n положительных приближенных чисел не превосходит максимальной относительной погрешности слагаемых.

С вычитанием приближенных чисел дело обстоит хуже: оценка

относительной погрешности разности x1 – x2 двух приближенных положительных чисел указывает на возможность сильного возрастания погрешности при x1 – x2  0. В этом случае говорят о потере точности при вычитании близких чисел.

Часто возникает обратная задача теории погрешностей: какой точности данные нужно подать на вход, чтобы на выходе получить результат заданной точности? Применительно к поставленной выше прямой задаче оценивания погрешности результата вычисления значения функции при заданных оценках погрешностей аргументов обратная задача заключается в оценивании величин Δxi (или xi) по известной величине Δu. Для случая дифференцируемой функции одной переменной грубое решение обратной задачи тривиально: если y = f(x), то

Δy  |dy| = |f'(x)|Δx, откуда . Для функции большего числа переменных обратная задача, вообще говоря, некорректна. Нужны дополнительные условия. Например, применяют принцип равных влияний, состоящий в предположении, что частные дифференциалы в (1) одинаково влияют на погрешность значения функции; тогда

, откуда

В качестве другого довольно естественного допущения можно принять равенство относительных погрешностей всех аргументов, т.е. считать при всех i = 1, 2, ..., n. Тогда и, значит, . Из последнего равенства получаем величину (характеризующую относительный уровень точности задания аргументов), на основе которой за границы абсолютных погрешностей аргументов принимаем . Имеются и другие, более сложные подходы к решению обратной задачи.

Соседние файлы в предмете [НЕСОРТИРОВАННОЕ]