У чому полягає принцип зближення методів підпростору Крилова для розв’язування лінійних систем рівнянь?


24

Як я розумію, існує дві основні категорії ітеративних методів розв’язання лінійних систем рівнянь:

  1. Стаціонарні методи (Jacobi, Gauss-Seidel, SOR, Multigrid)
  2. Методи підпростори Крилова (кон'югатний градієнт, GMRES тощо)

Я розумію, що більшість стаціонарних методів працюють за допомогою ітераційного розслаблення (згладжування) режимів Фур'є помилки. Як я розумію, метод кон'югатного градієнта (метод підпростору Крилова) працює, «переступаючи» через оптимальний набір напрямків пошуку від потужностей матриці, застосованих до го залишку. Чи спільний цей принцип для всіх підпросторових методів Крилова? Якщо ні, то як ми характеризуємо принцип, що лежить в основі конвергенції методів підпростору Крилова?н


2
Ваш аналіз стаціонарних методів упереджений простими модельними проблемами, оскільки їх можна проаналізувати з точки зору режимів Фур'є. Він також ігнорує неявну чергу чергування напрямку (ADI) та багато інших методів. Сенс більшості "Стаціонарних методів" полягає в об'єднанні багатьох простих "приблизних часткових" розв'язувачів в один ітераційний вирішувач. Суть методів Крилова - прискорити (або навіть застосувати) конвергенцію заданої стаціонарної лінійної ітерації.
Томас Клімпель

4
Документ, який, на мою думку, був написаний, щоб відповісти на ваші запитання, - це Іпсен і Мейєр, Ідея методів Крилова, Амер. Математика. Щомісяця 105 (1998) С. 889-899. Це дивовижно добре написаний і уточнюючий папір, доступний тут .
Ендрю Т. Баркер

@ AndrewT.Barker: Дивовижно! Дякую Андрію! :)
Пол

Відповіді:


21

Загалом, всі методи Крилова по суті шукають поліном, який є малим при оцінці за спектром матриці. Зокрема, й залишок методу Крилова (з нульовою початковою здогадкою) може бути записаний у формін

rн=Пн(А)б

де - якийсь монічний многочлен ступеня n .Пнн

Якщо діагоналізується, при A = V Λ V - 1 , маємоАА=VΛV-1

rнVПн(Λ)V-1б=κ(V)Пн(Λ)б.

У випадку, якщо є нормальним (наприклад, симетричним чи унітарним), ми знаємо, що κ ( V ) = 1. GMRES будує такий многочлен за допомогою ітерації Арнольді, тоді як CG будує поліном, використовуючи інший внутрішній продукт (детальніше див. Цю відповідь ) . Аналогічно BiCG будує свій многочлен через несиметричний процес Ланцоса, тоді як ітерація Чебишева використовує попередню інформацію про спектр (зазвичай оцінюють найбільші та найменші власні значення для симетричних певних матриць).Аκ(V)=1.

Як класний приклад (мотивований Trefethen + Bau), розглянемо матрицю, спектр якої такий:

Спектр матриці

У MATLAB я створив це за допомогою:

A = rand(200,200);
[Q R] = qr(A);
A = (1/2)*Q + eye(200,200);

Якщо ми розглянемо GMRES, який будує поліноми, які фактично мінімізують залишковий на всіх монічних поліномах ступеня , ми можемо легко передбачити залишкову історію, дивлячись на поліном кандидатан

Pn(z)=(1z)н

що в нашому випадку дає

|Pн(z)|=12н

для в спектрі А .zА

Тепер, якщо ми запустимо GMRES на випадковому RHS і порівняємо залишкову історію з цим многочленом, вони повинні бути досить схожими (кандидатські значення полінома менші, ніж залишкові GMRES, тому що ):б2>1

Залишкова історія


Чи можете ви пояснити, що ви маєте на увазі під "малим за спектром матриці"?
Пол

2
Взятий в якості комплексного многочлена, многочлен має малий модуль в області комплексної площини , яка включає в себе спектр A . Уявіть контурний графік, накладений на розсіяний графік власних значень. Як маленький малий? Це залежить від проблеми, чи нормально A , а права частина b . Основна ідея, однак, полягає в тому, що послідовність многочленів ( P n ) намагається отримати прогресивно менший і менший спектр, так що залишкова оцінка в моїй відповіді має тенденцію до 0 . PnAAb.(Pn)0
Рейд.Атчесон

@ Reid.Atcheson: Дуже добре. Можу я рекомендую писати як каппа ( V ) , і відзначити , що це один для нормальних матриць? VV1κ(V)
Джек Поульсон

Лаплаціан, обумовлений оптимальним SOR, має спектр, дуже подібний до прикладу матриці. Докладніше тут: scicomp.stackexchange.com/a/852/119
Джед Браун

Строго кажучи, CGNE не залежить від спектру, оскільки залежить лише від сингулярних значень.
Джед Браун

17

Про норми

nthPn2

rn=Axnb=(Pn(A)1)bb=Pn(A)b.

AAA1

rnA1=rnTA1rn=(Aen)TA1Aen=enTAen=enA

де ми використали помилку

en=xnx=xnA1b=A1rn

AA1A2ATAA

Гострота меж конвергенції

Нарешті, є цікава література щодо різних методів Крилова та тонкощі конвергенції GMRES, особливо для ненормальних операторів.


Ви залишили чудову книгу Олаві Неванлінні: books.google.com/…
Метт Кнеплі

11

Ітеративні методи в двох словах:

  1. Ах=бС

    х=х+Сб-САх
    Я-СА<1СС=D-1D - діагональна матриця, що містить діагональні елементи А).
  2. Методи підпростору Крилова, по суті, є методами проекції : Ви вибираєте підпросториU,VСн і шукайте х~U такий, що залишковий б-Ах~ є ортогональним до V. Для методів Крилова,U Звичайно, це простір, що охоплюється повноваженнями Азастосовується до початкового залишку. Потім різні методи відповідають конкретному виборуV (наприклад, V=U для КГ та V=АU для GMRES).

    Властивості конвергенції цих методів (і методів проекції в цілому) випливають з того, що обумовлено відповідним вибором V, the х~ оптимальні над U(наприклад, вони мінімізують похибки в енергетичній нормі для CG або залишкові для GMRES). Якщо ви збільшуєте розмірністьU під час кожної ітерації ви гарантовано (точно в арифметиці) знайдете рішення після безлічі кроків

    Як вказував Рейд Атчесон, використовуючи проміжки Крилова для U дозволяє довести показники конвергенції з точки зору власних значень (і, отже, кількості умови) А. Крім того, вони мають вирішальне значення для отримання ефективних алгоритмів для обчислення проекціїх~.

    Це чудово пояснено у книзі Юсефа Саада про ітеративні методи .

Використовуючи наш веб-сайт, ви визнаєте, що прочитали та зрозуміли наші Політику щодо файлів cookie та Політику конфіденційності.
Licensed under cc by-sa 3.0 with attribution required.