Ich lese über PCA und verstehe die meisten Vorgänge in Bezug auf die Ableitung, abgesehen von der Annahme, dass Eigenvektoren orthogonal sein müssen und in welcher Beziehung sie zu den Projektionen (PCA-Scores) stehen, die nicht korreliert sind. Ich habe unten zwei Erklärungen, die einen Zusammenhang zwischen Orthogonalität und Korrelation verwenden, diese aber nicht wirklich erklären: EINE , ZWEI .
Im zweiten Bild heißt es, dass die Bedingung auferlegt wird, um sicherzustellen, dass die Projektion nicht mit . Kann jemand ein Beispiel geben, um zu zeigen, warum orthogonale Vektoren unkorrelierte Variablen sicherstellen?
Was würde in PCA passieren, wenn ich Vektoren wählen würde, die nicht orthogonal sind? ist das überhaupt möglich Ich habe an anderer Stelle gelesen, dass Orthogonalität nur ein Nebenprodukt der symmetrischen Kovarianzmatrix ist, was darauf hindeuten würde, dass es nicht möglich ist, nicht paarweise orthogonale Eigenvektoren zu haben. Im ersten Bild auf der Suche nach der am besten geeigneten Matrix scheint es jedoch fast so, als würden wir als orthogonal wählen , um eine bequemere Matrix zu erhalten hat schöne Eigenschaften.
Ich habe andere Beiträge zu diesem Thema gelesen, war jedoch mit der Einbeziehung der Intuition in unkorrelierte Variablen nicht zufrieden. Ich freue mich über jede Hilfe, um diese Verwirrung zu verstehen !!
quelle
Antworten:
Ich werde versuchen zu erklären, wie die Orthogonalität von und sicherstellt, dass und nicht korreliert sind. Wir wollen, dass maximiert . Dies wird nur erreicht, wenn wir einschränken , in diesem Fall durch . Diese Optimierung erfordert die Verwendung eines Lagrange-Multiplikators (es ist nicht zu kompliziert, lesen Sie darüber auf Wikipedia). Wir versuchen daher, in Bezug auf als auch zu maximieren . Beachten Sie die Differenzierung in Bezug aufa1 a2 y1 y2 a1 Var(y1)=aT1Σa1 a1 aT1a1=1
quelle
PCA berechnet die Eigenvektoren der Kovarianzmatrix der Daten. Das heißt, diese Eigenvektoren entsprechen den Auswahlmöglichkeiten von , die die Gleichungen maximieren und die in Ihrem Buch angegebenen Einschränkungen erfüllen. Wenn Sie verschiedene Vektoren auswählen würden, würden diese nicht alle diese Kriterien erfüllen und es wäre keine PCA mehr (Sie würden immer noch eine Reihe von "Komponenten" finden, aber sie wären nicht länger "Haupt".a1:M
Eigenvektoren können aus jeder quadratischen Matrix berechnet werden und müssen nicht orthogonal sein. Da jedoch jede geeignete Kovarianzmatrix symmetrisch ist und symmetrische Matrizen orthogonale Eigenvektoren aufweisen, führt PCA immer zu orthogonalen Komponenten.
Die Orthogonalität von und folgt nicht nur aus der Anforderung, dass - sie folgt aus allen Bedingungen zusammen. Es ist leicht zu erkennen, warum die Orthogonalität von und nicht ausreicht, da die ursprüngliche Basis in der die Daten ausgedrückt werden, ebenfalls orthogonal ist. ZB in 2 Dimensionen hätten Sie und und Ihre Daten müssen dies eindeutig nicht entlang dieser Dimensionen unkorreliert sein (wenn dies der Fall wäre, würde Ihre PCA nur die ursprüngliche Basis bis zu einem Skalierungsfaktor zurückgeben).y1 y2 aT1a2=0 a1 a2 b b1=[10] b2=[01]
Der Text ist etwas umständlich formuliert, aber ich denke, das "was" in "das sicherstellt ..." bezieht sich auf die gesamte vorhergehende Klausel.
quelle