Ich habe einige großartige Beiträge gesehen, in denen PCA erklärt wurde und warum bei diesem Ansatz die Eigenvektoren einer (symmetrischen) Korrelationsmatrix orthogonal sind. Ich verstehe auch die Möglichkeiten zu zeigen, dass solche Vektoren orthogonal zueinander sind (z. B. führt die Verwendung der Kreuzprodukte der Matrix dieser Eigenvektoren zu einer Matrix mit Einträgen außerhalb der Diagonale, die Null sind).
Meine erste Frage ist, wenn Sie die Korrelationen der Eigenvektoren einer PCA betrachten, warum sind die nicht diagonalen Einträge der Korrelationsmatrix ungleich Null (dh wie können die Eigenvektoren korreliert werden, wenn sie orthogonal sind)?
Diese Frage bezieht sich nicht direkt auf PCA, aber ich habe sie in diesen Zusammenhang gestellt, da ich auf diese Weise auf das Problem gestoßen bin. Ich benutze R und speziell das Psychopaket, um PCA auszuführen.
Wenn es hilft, ein Beispiel zu haben, hat dieser Beitrag auf StackOverflow einen, der sehr praktisch und verwandt ist (auch in R). In diesem Beitrag zeigt der Autor der besten Antwort, dass die PCA-Ladungen (Eigenvektoren) unter Verwendung von Faktorenkongruenz oder Kreuzprodukten orthogonal sind. In seinem Beispiel ist die Matrix L
die PCA-Ladematrix. Das einzige, was nicht auf diesem Link steht, ist, dass cor(L)
die Ausgabe erzeugt wird, nach der ich frage, ob die Nicht-Null-Korrelationen zwischen den Eigenvektoren angezeigt werden sollen.
Ich bin besonders verwirrt darüber, wie orthogonale Vektoren nach dem Lesen dieses Beitrags korreliert werden können, was zu beweisen scheint, dass Orthogonalität gleichbedeutend mit mangelnder Korrelation ist: Warum sind PCA-Eigenvektoren orthogonal und in welcher Beziehung stehen die PCA-Scores nicht korreliert ?
Meine zweite Frage lautet: Wenn die PCA-Eigenvektoren zur Berechnung der PCA-Scores verwendet werden, sind die Scores selbst (wie erwartet) nicht korreliert. Gibt es einen Zusammenhang mit meiner ersten Frage dazu, warum Eigenvektoren korreliert sind, aber nicht die Scores?
quelle
Antworten:
Sei ein Zufallsvektor mit dem erwarteten Wert und der Varianz . Wir suchen nach solchen geordneten Vektoren , die die Varianz von maximieren . Im Wesentlichen lösen wirDa wir nur an der Richtung solcher Vektoren interessiert sind, nehmen wir zusätzlich die Einheitslänge der Vektoren . Vektoren sind eigentlich nicht zufällig (weil wir jetzt theoretisch arbeiten, ersetzen wir in Wirklichkeit das unbekannte und das unbekannteX X=(x1,x2,⋯,xd)T μ Σ ui uTiX
Jetzt können wir zeigen, dassTrivial fürAlso nicht die Eigenvektoren, sondern die Projektionen sind unkorreliert.
quelle
Beachten Sie, dass diescov=0
L
die Ladematrix ist, auch bekannt als die Eigenvektoren selbst. Dies ist nicht die PCA-Datenmatrix. Die Eigenvektoren müssen Orthogonalität liefern, aber nicht . Nehmen Sie zum Beispiel die Matrix:In PCA erhalten Sie nicht nur die Eigenvektoren der Kovarianz- / Korrelationsmatrix (abhängig von der Methode), sondern sie sind auch orthonormal ( für jeden Eigenvektor ), also wir erhalten:∥uj∥=1 uj
und
Beachten Sie jedoch, dass die PCA-Daten sind
und seine Korrelation ist
quelle