Ich habe die folgende randomisierte Trace-Technik in M. Seeger kennengelernt : „Aktualisierungen mit niedrigem Rang für die Cholesky-Zerlegung“, University of California in Berkeley, Tech. Rep, 2007.
Dabei ist .
Als Person ohne tiefgreifenden mathematischen Hintergrund frage ich mich, wie diese Gleichheit erreicht werden kann. Wie können wir außerdem beispielsweise geometrisch interpretieren ? Wo soll ich suchen, um zu verstehen, was es bedeutet, das innere Produkt eines Vektors und seinen Bereichswert zu nehmen? Warum ist der Mittelwert gleich der Summe der Eigenwerte? Welche praktische Bedeutung hat sie neben der theoretischen Eigenschaft?
Ich habe ein MATLAB-Code-Snippet geschrieben, um zu sehen, ob es funktioniert
#% tr(A) == E[x'Ax], x ~ N(0,I)
N = 100000;
n = 3;
x = randn([n N]); % samples
A = magic(n); % any n by n matrix A
y = zeros(1, N);
for i = 1:N
y(i) = x(:,i)' * A * x(:,i);
end
mean(y)
trace(A)
Die Kurve ist 15, wobei die Annäherung 14.9696 ist.
quelle
Wenn symmetrisch positiv definit ist, dann ist mit orthonormal und diagonal mit Eigenwerten auf der Diagonale. Da eine Identitätskovarianzmatrix hat und orthonormal ist, hat auch eine Identitätskovarianzmatrix. Wenn wir also schreiben , haben wir . Da der Erwartungsoperator linear ist, ist dies nur . Jedes ist ein Chi-Quadrat mit 1 Freiheitsgrad, hat also den erwarteten Wert 1. Daher ist die Erwartung die Summe der Eigenwerte.A A=UtDU U D x U Ux y=Ux E[xTAx]=E[ytDy] ∑ni=0λiE[y2i] yi
Geometrisch entsprechen symmetrische positive definitive Matrizen 1-1 Ellipsoiden - gegeben durch die Gleichung . Die Längen der Ellipsoidachsen sind durch wobei die Eigenwerte sind.A xTAx=1 1/λ−−√i λi
Wenn wobei die Kovarianzmatrix ist, ist dies das Quadrat der Mahalanobis-Distanz .A=C−1 C
quelle
Lassen Sie mich auf den Teil "Was ist seine praktische Bedeutung?" Der Frage eingehen. Es gibt viele Situationen, in denen wir Matrixvektorprodukte effizient berechnen können, selbst wenn wir keine gespeicherte Kopie der Matrix oder nicht genügend Speicher, um eine Kopie von zu speichern . Zum Beispiel könnte eine Größe von 100.000 mal 100.000 haben und vollständig dicht sein - es würde 80 Gigabyte RAM erfordern, um eine solche Matrix im Gleitkommaformat mit doppelter Genauigkeit zu speichern.Ax A A A
Zufällige Algorithmen wie dieser können verwendet werden, um die Spur von oder (unter Verwendung eines verwandten Algorithmus) einzelne diagonale Einträge von zu schätzen .A A
Einige Anwendungen dieser Technik auf große geophysikalische Inversionsprobleme werden in diskutiert
JK MacCarthy, B. Borchers und RC Aster. Effiziente stochastische Schätzung der Diagonale der Modellauflösungsmatrix und verallgemeinerte Kreuzvalidierung für große geophysikalische inverse Probleme. Journal of Geophysical Research, 116, B10304, 2011. Link zum Artikel
quelle