In Christopher Bishops Buch Pattern Recognition and Machine Learning enthält der Abschnitt über PCA Folgendes:
Bei einer zentrierten Datenmatrix mit der Kovarianzmatrix lautet die Eigenvektorgleichung:
Bishop definiert und behauptet, wenn und eine Einheitslänge haben, dann:
Woher kommt die Quadratwurzel?
BEARBEITEN:
Warum ist insbesondere Folgendes ungültig:
using
Das gleiche Ergebnis, aber ohne Quadratwurzel.
pca
linear-algebra
Danny
quelle
quelle
Antworten:
Dies bezieht sich auf den kurzen Abschnitt 12.1.4 PCA für hochdimensionale Daten in Bishops Buch. Ich kann sehen, dass dieser Abschnitt etwas verwirrend sein kann, da Bishop zwischen und mit einer leicht inkonsistenten Notation.vi ui
Der Abschnitt befasst sich mit der Beziehung zwischen den Eigenvektoren der Kovarianzmatrix und den Eigenvektoren der Gram-Matrix ( im Rahmen von PCA). Sei ein Eigenvektor mit Einheitslänge von :1NX⊤X 1NXX⊤ vi 1NXX⊤
Wenn wir diese Gleichung von links mit multiplizieren :X⊤
wir sehen, dass ein Eigenvektor von .X⊤vi 1NX⊤X
Es wird jedoch keine Einheitslänge haben! Berechnen wir in der Tat seine Länge: Die quadratische Länge von ist also gleich . Wenn wir also zu transformieren möchte in eine Längeneinheit Kovarianzmatrix Eigenvektor , müssen wir sie haben Einheitslänge normalisieren:
(Bitte beachten Sie, dass in der obigen die von Ihnen zitierte Definition . Stattdessen haben wir direkt mit einer Einheitslänge . Ich glaube, dies könnte die Quelle Ihrer Verwirrung gewesen sein. Bishop verwendet Definition weiter oben in diesem Abschnitt, aber für dieses spezielle Argument nicht mehr relevant.)vi=Xui vi vi=Xui
quelle