Безпечне застосування ітеративних методів на діагонально домінуючих матрицях


9

Припустимо, наведена наступна лінійна система

(1)Lx=c,
де L - зважений лаплаціан, відомий як позитивний semiвизначено з одновимірним нульовим простором, що охоплюється 1n=(1,,1)Rn, і варіація перекладу xRn, тобто x+a1n не змінює значення функції (похідна від якої є (1)). Єдині позитивні записиL знаходяться на його діагоналі, що є підсумком абсолютних значень від'ємних позадіагональних записів.

Я виявив в одній високо цитованій академічній роботі в цій галузі, що, хоча L є not strictly по діагоналі домінуючі, такі методи, як кон'югатний градієнт, Гаусс-Сейдл, Якобі, все ще можуть бути безпечно використані для вирішення (1). Обґрунтування полягає в тому, що через інваріантність перекладу можна безпечно зафіксувати одну точку (наприклад, видалити перший рядок і стовпецьL і перший запис від c ), перетворюючи таким чином L до а strictlyдіагонально домінуюча матриця. У будь-якому випадку оригінальна система вирішена в повному вигляді(1), с LRn×n.

Чи правильне це припущення, і якщо так, то яке альтернативне обгрунтування? Я намагаюся зрозуміти, як конвергенція методів все ще зберігається.

Якщо метод Якобі збігається з (1), що можна сказати про спектральний радіус ρ матриці ітерації D1(DL), де D - діагональна матриця із записами Lпо його діагоналі? Єρ(D1(DL)1, таким чином відрізняється від загальних гарантій конвергенції для ρ(D1(DL))<1? Я запитую це з моменту власних значень матриці ЛаплаціаD1Lпри цьому діагоналі повинні бути в діапазоні[0,2].

З оригінального твору:

…….

При кожній ітерації ми обчислюємо новий макет (x (t +1), y (t + 1)), вирішуючи наступну лінійну систему:

(8)L·x(t+1)=L(x(t),y(t))·x(t)L·y(t+1)=L(x(t),y(t))·y(t)
Не втрачаючи загальності, ми можемо виправити розташування одного з датчиків (використовуючи ступінь свободи локалізованого напруження перекладу) та отримати строго діагонально домінуючу матрицю. Тому ми можемо сміливо використовувати ітерацію Якобі для вирішення (8)

………………………….

У вищесказаному поняття "ітерація" пов'язане з базовою процедурою мінімізації, і її не слід плутати з ітерацією Якобі. Отже, система вирішується Якобі (ітеративно), а потім рішення купується в правій частині (8), але тепер для іншої ітерації основної мінімізації. Я сподіваюся, що це прояснить питання.

Зауважимо, що я знайшов, які ітераційні лінійні розв’язувачі сходяться для позитивних напівфінітних матриць? , але я шукаю більш детальну відповідь.


Чи можете ви опублікувати посилання або цитування на високо цитовану роботу?
Джефф Оксберрі

Його можна отримати з: citeseerx.ist.psu.edu/viewdoc/summary?doi=10.1.1.164.1421 Оскільки ви не очікуєте, що ви прочитаєте весь твір, подивіться на стор.7 (внизу). Я вважаю, що вибір ітеративних вирішувачів є виправданим, але я вважаю, що потрібне краще (або, принаймні, інше) обгрунтування.
usero

Цікаво, чи є ці хлопці з тієї ж громади, що і комбінаторні передумови.
шухало

Відповіді:


5

Ітерацію Якобі можна довести конвергентною.

Перше, що ви повинні переконатися, це cT1n=0, що є умовою існування рішення (я припускаю L=LT, інакше вам потрібно c(KerLT)) тому що ви сказали V0:=KerL=span{1n}. Ми будемо використовувати конвенцію, щоV0також є матрицею з колонами, що є ортонормальною основою її. У вашому випадку,V0:=1n/n.

Потім, для помилок ітерації Якобі в оригінальній системі, у вас є

e1=(ID1L)e0=(ID1L)(Pe0+V0a)=(ID1L)Pe0+V0a,
де P:=IV0V0 - ортогональна проекція на V1:=V0. З вищенаведеної ітерації ми це знаємо
Pe1=P(ID1L)Pe0,

з якої ми маємо ітераційну матрицю S в V1,
S:=P(ID1L)P.
Не те щоб S має однакові спектри (крім нулів) з наступною матрицею
S~:=(ID1L)PP=(ID1L)P=(ID1L)(IV0V0)=ID1LV0V0.
Ми хочемо спектральний радіус S менше одного, щоб довести конвергенцію.

Наступна цитата стара і зберігається лише для довідки. Слідкуйте за новим доказом.

У вашому випадку, V0V0=1n1n×n. І ви можете це переконати D1L+V0V0 є строго діагонально-домінуючим, використовуючи припущення, що записи Lпозитивні по діагоналі і негативні в іншому випадку. Показати власні значення D1L+V0V0 справжні, відзначимо, що матриця є самозалежною під внутрішнім твором <x,y>:=yTDx.

Якщо V0не у вашій конкретній формі, я не знайшов відповіді на питання конвергенції. Може хтось це уточнить?

Зауважте, що V0 - власний вектор, відповідний власній величині 1 з ID1L. На основі спостереження ми називаємо теорему 2.1 з власних значень оновлених матриць першого рангу з деякими додатками Цзю Дін та Ай-Хуй Чжоу.

Теорема 2.1 Нехайu і v бути двома n-вимірні стовпчикові вектори, такі, що u є власним вектором A пов'язані з власним значенням λ1. Тоді власне значенняA+uvT є {λ1+uTv,λ2,,λn} підрахунок алгебраїчної кратності.

Тоді ми знаємо, що спектри S~ те саме, що ID1L за винятком власного значення 1 в останньому зміщується на 1в власне значення нуля в першому. З тих пірρ(ID1L)(1,1], ми маємо ρ(S~)(1,1).


Дякую за відповідь. Щось подібне було те, що я вважав: а саме з зваженою лаплакійською структуроюD1L вище, можна було б показати, що його власні значення знаходяться в межах [0,2), отже, із спектральним радіусом всередині (0,2) (на одне власне значення більше, ніж на 0, і принаймні один є 0). Тому спектральний радіус ітераційної матриціID1L менше тоді 1, отже, з конвергентним Якобі. Можливо, вище припущення про спектральний радіусID1L (виключаючи 0) не є безпечним?
usero

Я думаю, що спектри D1L повинен бути в [0,2], що закрито в 2. Я не знаю, як можна дістатись2виключено. З моєї точки зору, (теорема кола Гершгоріна) [ en.wikipedia.org/wiki/Gershgorin_circle_theorem] може дати оцінку лише в тому числі2. Якщо це так, оцінка спектрального радіусаID1L є 1 при рівності, досяжній з векторами в ядрі L. Я думаю, що потрібне вам зближення полягає в тому, що в ортогональному просторі доповненняV1як зазначено у вищезгаданій "відповіді".
Хуй Чжан

Ви можете подивитися на лему 1.7 (v) з math.ucsd.edu/~fan/research/cb/ch1.pdf Матриця D1L можна вважати зваженим лаплаціанцем на повному графіку, отже, з виключеним 2. Я думаю, це достатній аргумент для підтвердження конвергенції? ........... Чи потрібен ваш підхід до попередньої / після обробки ітератів за межі центруванняc. Я прошу, бо ти познайомивсяV0 А щодо спектрів ID1LV0V0: враховуючи, що спектральний радіус (sr) від ID1L є (0,1], додавання 1n, поступився б sr<1. Це не достатньо гарний аргумент?
usero

Привіт, дякую, що вказав на хорошу книгу. Але я виявив, що не можу швидко поглянути. Щодо вашого останнього аргументу, він вважається майже таким же, як і "відповідь" вище. Просто будьте обережні, ви не додаєте1n але 1n1n×n, тому це не просте доповнення до sr з ID1L. Взагалі,srСума двох матриць не є простою сумоюsrз окремих матриць.
Хуй Чжан

Добре, що ти це вказав. Чи вимагає ваш підхід інша попередня / після обробка ітератів поза центром c. Я прошу, бо ти познайомивсяV0, і я подумав, що ви говорите про проектування нульового простору. Якщо так, чи дійсно проекція нульового простору необхідна для конвергенції?
usero

5

Методи Крилова ніколи прямо не використовують розмірність простору, в якому вони повторюються, тому ви можете запускати їх у сингулярних системах до тих пір, поки ви не будете зберігати ітерати в ненульовому підпросторі. Зазвичай це робиться шляхом проектування нульового простору на кожній ітерації. Є дві речі, які можуть піти не так: перша набагато частіше, ніж друга.

  1. Попередній кондиціонер нестабільний при застосуванні до оператора сингулярності. Прямі розв'язувачі та неповна факторизація можуть мати цю властивість. В якості практичного питання ми просто вибираємо різні попередні кондиціонери, але існують більш принципові способи проектування попередніх кондиціонерів для сингулярних систем, наприклад, Zhang (2010) .
  2. На деякій ітерації x знаходиться в ненульовому підпросторі, але Axживе цілком у нульовому просторі. Це можливо лише при несиметричних матрицях. Модифікований GMRES руйнується в цьому сценарії, але дивіться Reichel and Ye (2005) для варіантів без зриву.

Розв’язання сингулярних систем за допомогою PETSc див KSPSetNullSpace(). Більшість методів та попередніх кондиціонерів можуть вирішити єдині системи. На практиці малий нульовий простір для PDE з граничними умовами Неймана майже ніколи не є проблемою, якщо ви повідомляєте про рішення нуля простір Крилова і вибираєте розумний передумовник.

З коментарів звучить так, що вас особливо цікавить Якобі. (Чому? Якобі корисний як більш гладкий, але є набагато кращі методи, які можна використовувати як розв'язувачі.) Якобі, застосований доAx=b не сходиться, коли вектор b має компонент в нульовому просторі Aоднак частина рішення, ортогональна нульовому простору, конвергується, тому, якщо ви проектуєте нульовий простір з кожного ітерату, він конвергується. Як варіант, якщо ви виберете послідовнеb і початковий здогад, ітерати (в точній арифметиці) не накопичують компоненти в нульовому просторі.


Ви можете виконати ортогональну зміну бази, щоб на діагоналі був нуль (знайти будь-яку ортогональну матрицю Qу якому перший стовпець - постійний вектор). Під цим перетвореннямA1=QTAQ, матриця A1досі є симетричним позитивним напіввизначеним, але перший діагональний запис дорівнює 0, тому пряме застосування Якобі не зможе. З тих пірA1це щільно, ви б цього не робили на практиці, але це показує, що основа має значення. ЯкщоZ є ортогональною основою для нульового простору, спроектований GMRES просто вирішує (IZ)P1Ax=(IZ)P1b.
Джед Браун

Гм, здається, я відповів на коментар, який був видалений. Я залишу тут коментар у випадку, якщо це корисно.
Джед Браун

Дякую за відповідь, це на набагато вищому спеціалізованому рівні, тоді я очікував. Тому мені знадобляться кілька посібників щодо: 1) як спроектувати нульовий простір при кожній ітерації? 2) Наскільки я розумію, ви заявляли, що заява Jacobi до системи, як заявлено, в першу чергу, може не робити Наскільки збігатися з точним рішенням (тобто ітеранд не отримує кращих оцінок рішення). Тому пропонується вибирати різні кондиціонери? Якщо це так, чи це практично означає динамічну перевірку поведінкиdiag(A), і зміниться, якщо виникає проблема (з вищевказаним випадком лінійної системи)?
usero

Мій 1) зверху слід розцінювати як: зважаючи на ітерацію Якобі з системою, розміщеною в першу чергу, чи потрібно проектувати нульовий простір, і якщо так, то як можна включити його в оновленняXk+1=D1(b(AD)Xk)? Післяобробка ітератуXk+1та з урахуванням післяобробленої версії для Xk?
usero

1
На розумній основі Якобі повинен бути стабільним. Він також може використовувати 1 на діагоналі, якщо діагональний елемент матриці дорівнює 0, проекція все одно видаляє нульовий простір. Чи плануєте ви використовувати такий метод Крилова, як CG або GMRES? Якщо ні, то чому б і ні? Якщо ви є, вам просто потрібна ортогональна основа для нульового простору. У вас є лише постійний режим у вашому нульовому просторі, тому ортогональний проектор у нульовий простір єN=ZZT де Z- вектор стовпця. Таким чином, ортогональний проектор, який видаляє нульовий простір, таким чиномIN. (У моєму першому коментарі помилка була, якщоZ це основа, N=IZZT- це проектор.)
Джед Браун
Використовуючи наш веб-сайт, ви визнаєте, що прочитали та зрозуміли наші Політику щодо файлів cookie та Політику конфіденційності.
Licensed under cc by-sa 3.0 with attribution required.