- •Лекция №1
- •§ 1. Задача вычисления.
- •§ 2. Абсолютная и относительная погрешности
- •§ 3. Неустранимая погрешность значения функций для приближенных значений аргументов. Погрешности арифметических операций.
- •Лекция №2 Численные методы линейной алгебры
- •Формальное решение. Устойчивость.
- •Обусловленность матрицы. Погрешности.
- •Лекция №3
- •1. Схема единственного деления
- •3. Расчетные формулы
- •Лекция № 4 Метод Гаусса с выбором главного элемента (оптимальный метод).
- •Применения метода Гаусса к вычислению определителей и обратных матриц.
- •Лекция № 5 Итерационные методы решения систем линейных алгебраических уравнений.
- •Лекция № 6 Метод Зейделя (модификация метода итераций).
- •Тогда условие окончания итерационного процесса Зейделя будет иметь вид:
- •Лекция № 7 Методы решения нелинейных уравнений и систем нелинейных уравнений.
- •1. Метод деления отрезка пополам (метод бисекций или дихотомия).
- •Метод хорд (метод линейной интерполяции).
- •3. Метод Ньютона (метод касательных или метод линеаризации).
- •4. Метод итераций (задача о неподвижной точке).
- •Оценка погрешности приближений:
- •Лекция № 8
- •1. Метод итераций для системы двух уравнений.
- •2. Метод Ньютона для системы двух уравнений.
- •Лекция №9 Алгебраическая проблема собственных значений.
- •Лекция № 10 Приближение функций и их производных.
- •Постановка задачи приближения функций.
- •2. Оценка погрешности полиномиальной интерполяции.
- •Лекция № 11 Интерполяционный многочлен Ньютона с конечными разностями.
- •Лекция № 12 Метод наименьших квадратов и наилучшие среднеквадратические приближения.
- •О нормальной системе мнк при полиномиальной аппроксимации.
- •Лекция №13 Сплайн интерполяция
- •Лекция № 15
- •Метод Эйлера – разные подходы к построению.
- •Методы Рунге – Кутта.
- •Лекция № 16
- •Лекция № 17 Разностные схемы для уравнений параболического типа.
- •Лекция №18
- •Лекция № 19 Разностные схемы для уравнений эллиптического типа.
Лекция № 12 Метод наименьших квадратов и наилучшие среднеквадратические приближения.
Рассмотрим задачу, возникающую при изучении каких-либо закономерностей на основе наблюдения или экспериментов. Характерной особенностью таких задач является то, что исходный материал – заведомо приближенный, в силу неточности измерительных приборов, неповторимости условий наблюдений, случайных ошибок и пр.
Предположим, что между независимой переменной x и зависимой переменной y имеется некая неизвестная функциональная связь
y = f(x) .
Эта связь отображается таблицей
x |
x0 |
x1 |
… |
xn |
y |
y0 |
y1 |
… |
yn |
приближенных значений yi » f(xi) , получаемых в ходе наблюдений или экспериментов.
Требуется дать приближенное аналитическое описание этой связи, т.е. подобрать функцию j(x) такую, которая аппроксимировала бы на отрезке [x0 , xn] заданную отдельными приближенными значениями yi функцию f(x).
Для решения этой задачи заведомо неудачным является интерполяционный подход хотя бы потому, что функция j(x) такая, что
j(xi) = yi при всех iÎ {0,1,…,n} ,
будет мало похожа на искомую f(x), поскольку в ней отразятся все ошибки экспериментальных данных.
Это заставляет отказаться от идеи интерполяции и находить функцию j(x) такую, чтобы она хорошо отражала в среднем зависимость между x и y .
А именно, из каких-либо соображений (аналитических, графических или иных) аппроксимирующая функция j(x) берется из определенного m -параметрического семейства функций, и ее параметры подбираются так, чтобы сумма квадратов отклонений значений j(xi) от заданных приближенных значений yi была минимальной.
Такая функция (т.е. при таком оптимальном наборе параметров) будет наилучшей аппроксимацией f(x) среди функций выбранного семейства в смысле метода наименьших квадратов.
Ясно, что число данных приближенных значений yi в таблице должно быть не меньшим, чем число параметров в подбираемой зависимости j(x); как правило, считается, что n>>m .
Итак, согласно МНК, задаем семейство
Y=j(x, a1 , a2 ,…, am )
И ищем значения параметров a1 , a2 ,…, am (где m£ n), решая экстремальную задачу (задачу на экстремум функции)
Оптимальный набор параметров , a*1 , a*2 ,…, a*m может быть найден из необходимых условий гладкого экстремума, т.е. в результате приравнивания к нулю частных производных функции , взятых по каждому из ее аргументов.
Получаем следующую систему уравнений относительно неизвестных a1, a2,…,am
(1)
Эти условия экстремума в силу специфики функции являются и достаточными условиями ее минимума.
В зависимости от характера табличных данных, (изучаемых с помощью графика), часто используют следующие
двухпараметрические семейства функций:
y=ax+b, y=a+blnx, y=ax b, y=1/(ax+b)
Трехпараметрические семейства: Y=ax2+bx+c, y=axb+c, y=aebx+c
При изучении периодических явлений применяют тригонометрические функции.
Рассмотрим, к чему сводится процесс построения наилучших среднеквадратических приближений в одном конкретном, но общем, случае, когда аппроксимирующая f(x) функция j(x) представляет собой линейную комбинацию нескольких других, вообще говоря, более простых (базисных) функций.
Пусть - некоторая заданная на [a, b] система линейно независимых функций.
Обобщенным многочленом будем называть функцию
(3)
Где сi - произвольные вещественные числа (коэффициенты обобщенного многочлена).
Поскольку функции jj(x) считаются заданными, построение многочлена наилучшего приближения для данной функции f(x) сводится к нахождению оптимального набора c*0, c*1, ,c*m коэффициентов Qm(x) в (3) на основе метода наименьших квадратов, т.е. к решению задачи минимизации:
В дискретном случае необходимые и достаточные условия экстремума выражаются системой
(4)
После элементарных преобразований она может быть переписана в терминах скалярных произведений:
(4)
Если сеточные функции jj(xi) образуют систему линейно независимых элементов пространства Rn+1[a, b], то полученная симметричная линейная алгебраическая система (4), называемая нормальной системой МНК, имеет заведомо отличный от нуля определитель, и значит, однозначно разрешима.
Следовательно, при заданном базисе путем решения системы (4) можно найти единственный обобщенный многочлен
такой, что f(x) » Qm(x) при x Î [a, b} с наименьшей квадратичной ошибкой