Wir wissen beispielsweise aus Koutis-Miller-Peng (basierend auf der Arbeit von Spielman & Teng), dass wir lineare Systeme sehr schnell für Matrizen lösen können , die die Laplace-Matrix für einige spärliche Graphen mit nicht negativen Kantengewichten sind .
Betrachten Sie nun (erste Frage) die Verwendung einer dieser Laplace-Matrizen als Kovarianz oder (zweite Frage) inverse Kovarianzmatrix einer multivariaten Normalverteilung mit einem Mittelwert von Null oder . Für jeden dieser Fälle habe ich zwei Fragen:
A. Wie effizient können wir aus dieser Verteilung eine Stichprobe ziehen? (Um eine Stichprobe zu zeichnen, berechnen wir normalerweise die Cholesky-Zerlegung , zeichnen eine normale Norm y \ sim \ mathcal {N} (\ boldsymbol {0}, I) und berechnen dann eine Stichprobe als x = L ^ { -1} y ).
B. Wie effizient können wir die Determinante von A berechnen ?
Beachten Sie, dass beide Probleme bei einer Cholesky-Zerlegung leicht gelöst werden können, aber ich sehe nicht sofort, wie effizienter extrahiert werden kann, als nur mit einem spärlichen Standard-Cholesky-Algorithmus, der die in den oben genannten Techniken nicht beschriebenen Techniken verwendet funktioniert, und die kubische Komplexität für Graphen mit geringer, aber hoher Baumbreite hätte.
Antworten:
Hier gibt es zwei verschiedene Probleme.
Die kurzen Antworten lauten: 1) Verwenden Sie Näherungen für rationale Matrixfunktionen und 2) Sie tun dies nicht, müssen es aber trotzdem nicht. Ich gehe auf diese beiden Probleme weiter unten ein.
Matrix Quadratwurzel Approximationen
Die Idee hier ist, eine rationale Funktionsnäherung für Skalarfunktionen in eine rationale Funktionsnäherung für Matrixfunktionen umzuwandeln.
Wir wissen, dass es rationale Funktionen gibt, die sich der Quadratwurzelfunktion sehr gut annähern können: für positives . Um eine hohe Genauigkeit für das Intervall erzielen, benötigen Sie Terme in der Reihe. Um die entsprechenden Gewichte ( ) und Pole ( ) zu erhalten, suchen Sie einfach online oder in einem Buch nach der Näherung rationaler Funktionen.
Wenden Sie nun diese rationale Funktion auf Ihre Matrix an:
Aufgrund der Symmetrie von haben wir wobei die Singularwertzerlegung (SVD) von . Die Qualität der rationalen Matrixnäherung entspricht also der Qualität der rationalen Funktionsnäherung am Ort der Eigenwerte.A
Indem wir die Bedingungsnummer von mit , können wir auf jede gewünschte Toleranz anwenden, indem wir positiv verschobene Laplace-Lösungen der FormA κ A1/2b O(logκ)
Diese Lösungen können mit Ihrem bevorzugten Laplace-Löser durchgeführt werden. Ich bevorzuge Techniken vom Typ Multigrid, aber die in dem von Ihnen zitierten Artikel sollte auch in Ordnung sein. Das zusätzliche hilft nur bei der Konvergenz des Lösers.bI
Eine ausgezeichnete Arbeit, die dies diskutiert, sowie allgemeinere komplexe Analysetechniken, die für unsymmetrische Matrizen gelten, finden Sie unter Berechnen von , und verwandtenAα log(A) Matrixfunktionen durch Konturintegrale von Hale, Higham und Trefethen (2008) ).
Determinante "Berechnung"
Die Determinante ist schwerer zu berechnen. Soweit ich weiß, besteht der beste Weg darin, die Schur-Zerlegung mit dem QR-Algorithmus zu berechnen und dann die Eigenwerte aus der Diagonale der oberen Dreiecksmatrix abzulesen . Dies dauert , wobei die Anzahl der Knoten im Diagramm ist.A=QUQ∗ U O(n3) n
Die Berechnung von Determinanten ist jedoch ein inhärent schlecht konditioniertes Problem. Wenn Sie also jemals eine Arbeit lesen, die sich auf die Berechnung von Determinanten einer großen Matrix stützt, sollten Sie der Methode sehr skeptisch gegenüberstehen.
Zum Glück brauchen Sie die Determinante wahrscheinlich nicht wirklich. Beispielsweise,
Wir können als eine niedrigrangige Aktualisierung der Identität , wobei die effektive Der Rang der Aktualisierung mit niedrigem Rang ist ein lokales Maß dafür, wie nicht-Gauß die wahre Verteilung ist. Typischerweise ist dies viel niedriger als der volle Rang der Matrix. Wenn groß ist, ist die wahre Verteilung lokal so nicht-Gaußsch, dass man die gesamte Strategie in Frage stellen sollte, diese Verteilung unter Verwendung lokaler Gaußscher Näherungen abzutasten.A−1x0Axp
Die niedrigrangigen Faktoren und können mit randomisierter SVD oder Lanczos gefunden werden, indem die Matrix auf verschiedene Vektoren , für deren Anwendung jeweils ein Graph erforderlich ist Laplace-Lösung. Somit ist die Gesamtarbeit zum Erhalten dieser Faktoren mit niedrigem Rang .Q D
Wenn man , ist das Determinantenverhältnis dannD=diag(d1,d2,…,dr)
Diese Berechnungsverfahren für die Determinantenration mit niedrigem Rang finden sich in einer stochastischen Newton-MCMC-Methode für großräumige statistische inverse Probleme bei der Anwendung auf die seismische Inversion von Martin et al. (2012). In diesem Artikel wird es auf Kontinuumsprobleme angewendet, sodass der "Graph" ein Gitter im 3D-Raum ist und der Graph Laplace die tatsächliche Laplace-Matrix ist. Alle Techniken gelten jedoch für allgemeine Graph-Laplace-Werte. Es gibt wahrscheinlich andere Artikel, die diese Technik inzwischen auf allgemeine Grafiken anwenden (die Erweiterung ist trivial und im Grunde das, was ich gerade geschrieben habe).
quelle