Добавил:
Upload Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:
Лекция ММ-8.doc
Скачиваний:
5
Добавлен:
19.07.2019
Размер:
467.46 Кб
Скачать
  1. Метод обратных интеграций.

Для нахождения собственных векторов удобен метод обратной итерации, заключающийся в следующем. Выберем наудачу вектор b и рассмотрим линейную неоднородную систему

(8.3)

Определитель этой системы отличен от нуля, так что она имеет единственное решение. Покажем, что найденный из нее вектор x окажется почти равным собственному вектору соответствующему данному собственному значению .

Для простоты ограничимся случаем, когда матрица n-го порядка имеет n линейно-независимых собственных векторов — например, матрица нормальная (случай произвольных матриц рассмотрен ниже). Тогда собственные векторы образуют базис, по которому можно разложить векторы x и b:

(8.4)

Подставляя это разложение в систему (8.4), перенося все члены влево и учитывая, что , получим

(8.5)

Поскольку собственные векторы линейно – независимы, то их линей­ная комбинация обращается в нуль только в том случае, когда все ее коэффициенты равны нулю. Поэтому из (8.5) следует

(8.6)

Видно, что если - мало, то коэффициент будет очень большим; в противном случае он невелик. Рассмотрим следствия из этого в трех основных случаях.

Первый случай — собственное значение простое. Тогда из всех коэффициентов , , только один коэффициент оказывается очень большим. Это означает, что найденный вектор x почти совпадает с собственным вектором (с точностью до нормировочного множителя), что и требовалось доказать. Заметим, что поскольку найденный вектор оказывается очень большим, то его обычно нормируют.

Из (8.6) видно, что при обратной итерации (т. е. при переходе от b к x) компонента усиливается по сравнению с другими компонентами примерно во столько раз, во сколько погрешность данного собственного значения меньше разности соседних собственных значений. Поэтому чем точнее найдено (очевидно, хорошая точность особенно важна при наличии близких собственных значений), тем ближе x будет к . Если собственные значения найдены слишком грубо, или случайно вектор выбран неудачно, так что - очень мало, то разница между x и может оказаться заметной. Тогда подставляют найденный вектор x в правую часть уравнения (8.3) вместо b и организуют итерационный процесс

(8.7)

Обычно он сходится настолько быстро, что двух итераций вполне достаточно. Напомним, что на каждой итерации обязательно надо нормировать найденные чтобы не получать в расчетах слишком больших чисел, вызывающих переполнение на ЭВМ.

Замечание 8.1. Очень эффективен один простой способ выбора b. В качестве его компонент в декартовых координатах возьмем последовательные многоразрядные псевдослучайные числа . Тогда вероятность того, что окажется очень малым, будет ничтожна.

Второй случаи — собственное значение кратно; например, , . Напомним, что в этом случае собственные векторы определены неоднозначно; любая их линейная комбинация удовлетворяет уравнению

и являются собственным вектором. Т.е. они порождают p – мерное подпространство, любой базис которого можно взять в качестве системы искомых собственных векторов.

Теперь из (8.6) следует, что большими оказываются коэффициенты , причем степень их усиления одинакова; остальные коэффициенты остаются малыми. Значит, найденный из (8.3) вектор х будет приближенно линейной комбинацией , а тем самым — искомым собственным вектором. Если точность полученного приближения недостаточна, то обратную итерацию повторяют снова по формуле (8.7).

Чтобы найти все собственные векторы для кратного собственного значения, возьмем столько линейно-независимых векторов , какова кратность корня. Обратными итерациями получим столько же векторов , которые и будут искомыми; они будут линейно-независимыми, поскольку преобразование (8.3) невырожденное. Остается только ортогонализовать найденные векторы, если это требуется по условиям задачи.

Напомним, что в качестве декартовых координат векторов целесообразно брать псевдослучайные числа; здесь это имеет то дополнительное преимущество, что векторы автоматически получаются линейно-независимыми.

Третий случай — когда матрица имеет кратные корни, но число ее собственных векторов меньше п — выходит за рамки нашего доказательства. Однако метод обратных итераций здесь также применим в той форме, которая описана для кратных корней. Разница лишь в том, что если -кратному собственному значению соответствуют всего собственных векторов , то из полученных обратной итерацией векторов только будут линейно-независимыми. Это выясняется при их ортогонализации: первые векторов ортогонализуются «без приключений», а при ортогонализации следующих векторов их компоненты обращаются почти в нуль (в пределах погрешности расчета).

Каков объем расчетов в методе обратной итерации? Нахождение собственного вектора требует (при одной итерации) не более действий, так что для нахождения всех их надо около арифметических действий. Таким образом, при больших порядках матрицы метод неэкономичен, но при вполне удовлетворителен. Особенно употребителен этот метод из-за своей про­стоты, универсальности и хорошей устойчивости алгоритма.

В некоторых частных случаях расчеты существенно упроща­ются и ускоряются. Наиболее важен случай трехдиагональной матрицы. При этом линейная система уравнений (8.3) для определения компонент собственных векторов также будет трехдиагональной, и ее решают экономичным методом прогонки по несложным формулам. Для вычисления одного собственного вектора в этом случае требуется , а для всех— арифметических действий.

Для почти треугольной матрицы в методе обратных итераций требуется решать линейную систему с почти треугольной матрицей, что делается специ­альным вариантом метода исключения. Если учесть, что случайный вектор в правой части (8.3) можно задавать уже после приведения матрицы в методе исключения Гаусса к треугольной форме, то нахождение каждого собствен­ного вектора требует действий (тот же прием для трехдиагональной матрицы позволяет сократить число действий до ). А для нахождения всех собствен­ных векторов требуется соответственно арифметических действий.

Отметим одну существенную деталь. Поскольку , то при нахождении собственных векторов в формулах прямого хода метода исключений (прогонки) на главной диагонали появится хотя бы один очень малый элемент. Чтобы формально можно было вести расчет, диагональные элементы не должны обращаться в нуль; для этого надо, чтобы погрешность собственного значения была не слишком мала, т. е. составляла бы 10—15 последних двоичных разрядов числа на ЭВМ. Если корни характеристического многочлена находят методом парабол (или секущих), то такая погрешность получается естественно, ибо из-за ошибок округления эти методы перестают сходиться в очень малой окрестности корня. Но если корни определялись методом Ньютона, то при этом могли быть найдены верно все знаки соб­ственного значения; тогда, чтобы избежать деления на нуль, приходится специально вносить в небольшие погрешности.