Angenommen , das folgende lineare System gegeben wobei die Laplace - gewichteten ist bekannt , positiv sein definit ein eindimensionaler Nullraum von spannte und die Übersetzungsvarianz von , dh , ändert den Funktionswert nicht (dessen Ableitung ). Die einzigen positiven Einträge von befinden sich in seiner Diagonale, was eine Summe der Absolutwerte der negativen Einträge außerhalb der Diagonale ist. Lsemi-1n=(1,…,1)∈Rnx∈Rnx+a1n(1)L.
Ich fand in einem sehr wissenschaftlichen Arbeit zitiert in seinem Gebiet , das, obwohl ist diagonal dominant, Methoden wie konjugierten Gradienten, Gauß-Seidl, Jacobi, noch sicher zu lösen verwendet werden, um . Das Grundprinzip ist, dass man aufgrund der Translationsinvarianz sicher einen Punkt fixieren kann (z. B. die erste Zeile und Spalte von und den ersten Eintrag aus entfernen ), wodurch in eine diagonal dominante Matrix umgewandelt wird. Wie auch immer, das ursprüngliche System wird in der vollständigen Form von mit gelöst .n o t s t r i c t l y ( 1 ) L c L s t r i c t l y ( 1 ) L ∈ R n × n
Ist diese Annahme richtig und wenn ja, welche alternativen Gründe gibt es? Ich versuche zu verstehen, wie die Konvergenz der Methoden noch gilt.
Wenn die Jacobi-Methode mit konvergent ist , was könnte man über den Spektralradius der Iterationsmatrix , wobei die Diagonalmatrix mit Einträgen von auf ihrer Diagonale ist? Ist , also anders als die allgemeinen Konvergenzgarantien für ? Ich frage dies seit den Eigenwerten der Die Laplace-Matrix mit Einsen auf der Diagonale sollte im Bereich .ρ D - 1 ( D - L ) D L ρ ( D - 1 ( D - L ) ≤ 1 ρ ( D - 1 ( D - L ) ) < 1 D - 1 L.
Aus der Originalarbeit:
......................................
Bei jeder Iteration berechnen wir ein neues Layout (x (t + 1), y (t + 1)), indem wir das folgende lineare System lösen: Ohne Verlust der Allgemeinheit können wir den Ort eines von die Sensoren (unter Verwendung des Translationsfreiheitsgrades der lokalisierten Spannung) und erhalten eine streng diagonal dominante Matrix. Daher können wir die Jacobi-Iteration sicher zum Lösen verwenden (8).
.......................................
Oben bezieht sich der Begriff "Iteration" auf das zugrunde liegende Minimierungsverfahren und ist nicht mit der Jacobi-Iteration zu verwechseln. Das System wird also von Jacobi (iterativ) gelöst, und dann wird die Lösung auf der rechten Seite von (8) gekauft, aber jetzt für eine weitere Iteration der zugrunde liegenden Minimierung. Ich hoffe, das klärt die Sache.
Beachten Sie, dass ich festgestellt habe, welche iterativen linearen Löser für positive semidefinite Matrizen konvergieren. , suche aber eine ausführlichere Antwort.
Antworten:
Die Jacobi-Iteration kann als konvergent erwiesen werden.
Das erste, was Sie sicherstellen sollten, ist, dass , was die Bedingung für das Vorhandensein einer Lösung ist (ich nehme an, , andernfalls benötigen Sie ), weil Sie gesagt haben . Wir werden die Konvention verwenden, dass auch die Matrix ist, deren Spalten eine orthonormale Basis bilden. In Ihrem Fall .L = L T c ∈ ( K e r L T ) ⊥ V 0 : = K e r L = s p a n { 1 n } V 0 V 0 : = 1 n / √cT1n=0 L=LT c∈(KerLT)⊥ V0:=KerL=span{1n} V0 V0:=1n/n−−√
Dann haben Sie für die Fehler der Jacobi-Iteration auf dem ursprünglichen System wobei die orthogonale Projektion auf . Aus der obigen Iteration wissen wir, dass aus dem wir die Iterationsmatrix in , Nicht dass die gleichen Spektren (außer Nullen) mit der folgenden Matrix Wir wollen den Spektralradius vonP : = I - V 0 V ' 0 V 1 :
Das folgende Zitat ist alt und dient nur als Referenz. Siehe danach für den neuen Beweis.
Man beachte, dass der Eigenvektor ist, der dem Eigenwert von . Basierend auf der Beobachtung nennen wir Satz 2.1 aus Eigenwerten von Rang-1-aktualisierten Matrizen mit einigen Anwendungen von Jiu Ding und Ai-Hui Zhou. 1 I - D - 1 L.V0 1 I−D−1L
Satz 2.1 Sei und zwei dimensionale Spaltenvektoren, so dass ein Eigenvektor von , der dem Eigenwert . Dann werden die Eigenwerte von sind Zählen algebraische Multiplizität.u v n u A λ1 A+uvT {λ1+uTv,λ2,…,λn}
Dann wissen wir, dass die Spektren von die gleichen sind wie außer dass der Eigenwert im letzteren um in den Eigenwert Null im ersteren verschoben wird . Da , haben wir .S~ I−D−1L 1 −1 ρ(I−D−1L)⊂(−1,1] ρ(S~)⊂(−1,1)
quelle
Krylov-Methoden verwenden niemals explizit die Dimensionalität des Raums, in dem sie iterieren. Daher können Sie sie auf singulären Systemen ausführen, solange Sie die Iterationen im Nicht-Null-Unterraum belassen. Dies erfolgt normalerweise durch Projizieren des Nullraums bei jeder Iteration. Es gibt zwei Dinge, die schief gehen können: Das erste ist viel häufiger als das zweite.
Informationen zum Lösen einzelner Systeme mit PETSc finden Sie unter
KSPSetNullSpace()
. Die meisten Methoden und Vorkonditionierer können singuläre Systeme lösen. In der Praxis ist der kleine Nullraum für PDEs mit Neumann-Randbedingungen fast nie ein Problem, solange Sie den Krylov-Löser über den Nullraum informieren und einen angemessenen Vorkonditionierer auswählen.Aus den Kommentaren geht hervor, dass Sie sich speziell für Jacobi interessieren. (Warum? Jacobi ist nützlich als Multigrid-Glätter, aber es gibt viel bessere Methoden als Löser.) Jacobi, angewendet auf , konvergiert nicht, wenn der Vektor eine Komponente im Nullraum von hat Ein Teil der Lösung, der orthogonal zum Nullraum ist, konvergiert. Wenn Sie also den Nullraum aus jeder Iteration projizieren, konvergiert er. Wenn Sie alternativ ein konsistentes und eine anfängliche Schätzung wählen , akkumulieren die Iterationen (in exakter Arithmetik) keine Komponenten im Nullraum.Ax=b b A b
quelle