- •III семестр. Ммф нгу
- •Конспект лекций1
- •2003 – 2004 Учебный год
- •Содержание
- •Лекция 1. Традиционные задачи линейной алгебры
- •Векторные и матричные нормы
- •Число обусловленности
- •Лекция 2. Прямые методы решения линейных уравнений Метод исключения Гаусса – схема единственного деления
- •Теорема об lu разложении
- •Разложение Холесского
- •Метод квадратного корня
- •Метод вращений решения системы уравнений Элементарная матрица вращения
- •–Ый шаг метода вращений
- •Решение системы с вырожденной матрицей –разложение с перестановками столбцов матрицы
- •Совместность системы с вырожденной матрицей
- •Применение –разложения с перестановками столбцов для решения совместной системы
- •Метод прогонки решения систем с трехдиагональной матрицей –разложение трехдиагональной матрицы :
- •Формулы метода прогонки для системы :
- •Асимптотическая скорость сходимости
- •Метод Зейделя (Гаусса–Зейделя, Некрасова)
- •Необходимое и достаточное условие сходимости метода Зейделя в случае симметричной матрицы с положительной главной диагональю
- •Лекция 7. Функционал ошибки
- •Метод полной релаксации
- •Метод неполной релаксации
- •Метод минимальных невязок
- •Метод простой итерации
- •Оценки сходимости мнс и ммн
- •Лекция 9. Метод Ричардсона с чебышевскими параметрами Задача оптимизации параметров
- •Полином Чебышева и решение задачи оптимизации параметров
- •Циклический метод Ричардсона: формулы и сходимость
- •Об устойчивости метода Ричардсона
- •Трехчленные формулы реализации метода Ричардсона с чебышевскими параметрами
- •Лекция 10. Многошаговые методы. Вариационная оптимизация
- •Метод сопряженных градиентов
- •Переобуславливатель
- •Положительно определенные матрицы
- •Лекция 11. Проблема собственных значений
- •Корректность задачи на собственные значения
- •Степенной метод вычисления максимального собственного значения матрицы
- •Степенной метод вычисления минимального собственного значения матрицы
- •Применение ортогонализации и степенного метода для вычисления очередного собственного значения
- •Лекция 12. Метод деления пополам (бисекций)
- •Идея метода бисекций вычисления
- •Приведение самосопряженной матрицы к трехдиагональному виду ортогональным преобразованием подобия с помощью матриц вращения
- •Якобиевы матрицы
- •О вычислении чпз
- •О вычислении собственного вектора
- •Лекция 13. Метод вращений (Якоби)
- •Выбор вращения
- •Сходимость собственных значений
- •Сходимость собственных векторов
- •Литература
Лекция 7. Функционал ошибки
Второй из способов построения итерационного метода решения системы линейных алгебраических уравнений ( ) состоит из построения последовательности приближений такой, что , т.е. строгого убывания на каждом шаге функционала ошибки .
Теорема. |
Если ( ) и отображение (оператор шага для ошибки: ) непрерывно при , то , т.е. . |
Док–во. |
Т.к. , то . Предположим, что . Т.к. , то . Т.к. , то . Тогда, выполнив предельный переход в соотношениях
получим противоречие: . |
Обычно используют нормы, порождаемые симметричной положительно определенной матрицей: .
Доказать: если , то |
– скалярное произведение, – норма в . |
Метод полной релаксации
для решения системы с матрицей – очередное приближение определяется по известному приближению за шагов:
где параметр выбирается из условия минимума .
Теорема. |
и . |
Док–во. |
Т.к. , то имеем
. Очевидно, что при будет максимальное уменьшение ошибки (полная релаксация): . , если хотя бы одна из компонент невязки (в противном случае , т.е. ). Итак, функционал ошибки строго убывает. Найдем оператор шага для ошибки: имеем (проверить!):
или – метод Зейделя (он сходится) – непрерывный (всюду) оператор шага по теореме о функционале ошибки. |
Метод неполной релаксации
для решения системы с матрицей – очередное приближение определяется по известному приближению за шагов:
где параметр , т.е. ошибка уменьшается меньше, чем в методе полной релаксации ( ):
Расчетные формулы имеют вид (проверить!):
или
Теорема. |
Если , то метод неполной релаксации сходится . |
Док–во |
практически совпадает с доказательством сходимости метода полной релаксации. |
Оценка сходимости методов релаксации
Итак, ошибка монотонно убывает в норме . Оценим .
Т. к.
, где , то , если .
.
Т.к. , то
где .
Пусть .
Т.к. ,
то .
Теорема. |
где постоянные и таковы, что
( , ) |
Док–во |
очевидно. |
Доказать: .
Доказать: .
Пример
,
,
т.к. , то и ,
тогда (проверить):
верхняя релаксация |
, , |
полная релаксация |
, |
т.е. метод верхней релаксации в раз дешевле.
Лекция 8.
Градиент, метод наискорейшего спуска
Как выбирать вектор при построении итерационного метода из условия минимизации ошибки: ?
Если , то
Следовательно, .
Теорема. |
Метод наискорейшего спуска сходится , если . |
|
Док–во. |
минимум правой части достигается при : , если . Очевидно, что оператор : непрерывен всюду, кроме , быть может, 0. . |