Wenn in PCA die Anzahl der Dimensionen größer als (oder sogar gleich) die Anzahl der Abtastwerte , warum haben Sie dann höchstens Nicht-Null-Eigenvektoren? Mit anderen Worten, der Rang der Kovarianzmatrix unter den Dimensionen ist .
Beispiel: Ihre Stichproben sind vektorisierte Bilder mit der Dimension , aber Sie haben nur Bilder.
pca
dimensionality-reduction
eigenvalues
GrokingPCA
quelle
quelle
Antworten:
Überlegen Sie, was PCA macht. Einfach ausgedrückt, PCA (wie am häufigsten ausgeführt) erstellt ein neues Koordinatensystem durch:
(Weitere Informationen finden Sie in diesem hervorragenden CV-Thread: Machen Sie Sinn mit der Analyse von Hauptkomponenten, Eigenvektoren und Eigenwerten .) Es dreht jedoch nicht nur Ihre Achsen auf irgendeine Weise. Ihr neues (die erste Hauptkomponente) ist auf die maximale Variationsrichtung Ihrer Daten ausgerichtet. Die zweite Hauptkomponente ist in der Richtung der nächstgrößeren Variationsgröße ausgerichtet , die orthogonal zur ersten Hauptkomponente ist . Die übrigen Hauptkomponenten werden ebenfalls gebildet.X1
Schauen wir uns in diesem Sinne das Beispiel von @ amoeba an . Hier ist eine Datenmatrix mit zwei Punkten in einem dreidimensionalen Raum:
Sehen wir uns diese Punkte in einem (pseudo-) dreidimensionalen Streudiagramm an:
quelle