Methoden zur Berechnung von Faktor-Scores und wie lautet die Matrix für den „Score-Koeffizienten“ in der PCA- oder Faktoranalyse?

20

Nach meinem Verständnis erhalten wir in PCA basierend auf Korrelationen Faktor- (= Hauptkomponente in diesem Fall) Belastungen, die nichts anderes als die Korrelationen zwischen Variablen und Faktoren sind. Wenn ich jetzt Faktor-Scores in SPSS generieren muss , kann ich die Faktor-Scores jedes Befragten für jeden Faktor direkt abrufen. Ich habe auch beobachtet, dass ich, wenn ich " Komponenten-Score-Koeffizienten-Matrix " (wie von SPSS erzeugt) mit standardisierten Originalvariablen multipliziere, die gleichen Faktor-Scores erhalte, wie sie von SPSS erhalten wurden.

Kann mir bitte jemand helfen zu verstehen, wie "Komponenten-Score-Koeffizientenmatrix" oder "Faktor-Score-Koeffizientenmatrix" - mit der ich Faktor- oder Komponenten-Scores berechnen kann - berechnet wird? Wie unterscheiden sich die verschiedenen Methoden zur Berechnung der Faktorwerte in dieser Matrix?

Kartikeya Pandey
quelle
1
Eine Formel wird zum Beispiel hier angegeben: stats.stackexchange.com/a/92512/3277 .
TTNPHNS
@amoeba, wenn man PCA macht, bedeutet das Wort "Faktor Score" "Komponenten-Score", sie sind gleichwertig. Siehe unten in der verknüpften Antwort oben - innerhalb des PCA-Modells erzeugt die Formel, die am häufigsten zur Berechnung der Faktorbewertungen in FA verwendet wird, dann genaue (standardisierte) Komponentenbewertungen.
TTNPHNS
2
SPSS zeigt Ihnen die Matrix der Koeffizienten und speichert (standardisierte) Scores als neue Variablen und hängt sie an den Datensatz der ursprünglichen Variablen . Das OP - denke ich - standardisierte und multiplizierte dann . Und, voila, es ist das, was SPSS an den Datensatz angehängt hat! Die Frage des OP ist also, dass Wow! gefolgt von "wie berechnet wurde?". BXXXBB
TTNPHNS
@ttnphs du verstehst richtig was ich meinte. Mein Problem ist jedoch, dass ich davon ausgegangen bin, dass wenn ich XB verwende, um den Faktor Socre jeder Beobachtung vorherzusagen, B die Faktorbelastung gewesen sein sollte. In SPSS ist es jedoch eher die "Komponentenbewertungskoeffizientenmatrix" als die "gedrehte Faktorbelastung", weshalb Ich wollte die Beziehung oder den Unterschied zwischen "gedrehter Faktorbelastung" und "Komponentenwertkoeffizientenmatrix" verstehen.
Kartikeya Pandey
Also, wie ich aus dem Link erfahren habe, möchte ich nur einmal sicher sein, ob A beim Laden des gedrehten Faktors (Inverse (A)) 'die "Komponenten-Score-Koeffizientenmatrix" ist, die auch mit der Formel A⋅diag berechnet werden kann. Inverse ((Eigenwerte))
Kartikeya Pandey

Antworten:

25

Berechnungsmethoden für Faktor- / Komponenten-Scores

Nach einer Reihe von Kommentaren entschloss ich mich schließlich, eine Antwort zu geben (basierend auf den Kommentaren und mehr). Es geht um die Berechnung von Komponenten-Scores in PCA und Faktor-Scores in der Faktoranalyse.

Faktor / Komponenten-Scores werden durch , wobei die analysierten Variablen sind ( zentriert, wenn die PCA / Faktor-Analyse auf Kovarianzen beruhte oder z-standardisiert, wenn sie auf Korrelationen beruhte). ist die Faktor / Komponente-Score-Koeffizienten- (oder Gewichts-) Matrix . Wie können diese Gewichte geschätzt werden?XBF^=XBXB

Notation

R - p x pMatrix variabler (Item-) Korrelationen oder Kovarianzen, je nachdem, welcher Faktor / PCA analysiert wurde.

AP - p x mMatrix von Faktor / Komponenten - Beladungen . Dies können Belastungen nach der Extraktion sein (oft auch als ), woraufhin die Latenzen orthogonal oder praktisch sind, oder Belastungen nach der Rotation, orthogonal oder schräg. Wenn die Drehung schief war , müssen es Musterladungen sein .A

C - m x mKorrelationsmatrix zwischen den Faktoren / Komponenten nach ihrer (den Belastungen) schrägen Rotation. Wenn keine Drehung oder orthogonale Drehung durchgeführt wurde, ist dies eine Identitätsmatrix .

=PCP'=PP'R^ - p x preduzierte Matrix reproduzierter Korrelationen / Kovarianzen, ( für orthogonale Lösungen), enthält Kommunalitäten auf seiner Diagonale.=PCP=PP

R U 2U2 - p x pdiagonale Matrix von Eindeutigkeiten (Eindeutigkeit + Gemeinsamkeit = diagonales Element von ). Ich verwende hier "2" als Index anstelle von hochgestelltem Index ( ), um die Lesbarkeit in Formeln zu verbessern.RU2

= R + U 2R - p x pvollständige Matrix reproduzierter Korrelationen / Kovarianzen, .=R^+U2

M M M + = ( M ' M ) - 1 M 'M+ - Pseudoinverse einer Matrix ; wenn volle Rang ist, ist .MMM+=(MM)1M

M p o w e r H K H ' = M M p o w e r = H K p o w e r H 'Mpower - für eine quadratische symmetrische Matrix das Erhöhen zur , dass , die Eigenwerte zur Potenz erhöht und zurücksetzt : .MpowerHKH=MMpower=HKpowerH

Grobe Methode zur Berechnung der Faktor- / Komponentenwerte

Dieser beliebte / traditionelle Ansatz, manchmal auch als Cattell-Ansatz bezeichnet, berechnet einfach den Durchschnitt (oder die Summe) der Werte von Elementen, die mit demselben Faktor geladen werden. Mathematisch kommt es darauf an, bei der Berechnung der Scores die Gewichte zu setzen . Es gibt drei Hauptversionen des Ansatzes: 1) Verwende Ladungen so wie sie sind; 2) Dichotomisiere sie (1 = geladen, 0 = nicht geladen); 3) Verwenden Sie Ladungen so wie sie sind, aber Nullladungen, die kleiner als ein bestimmter Schwellenwert sind.F = X BB=PF^=XB

Häufig werden bei diesem Ansatz, wenn sich die Elemente in derselben Maßeinheit befinden, die Werte nur als Rohdaten verwendet. Um die Logik des Factorings nicht zu durchbrechen, sollte das beim Eintritt in das Factoring verwendet werden - standardisiert (= Analyse von Korrelationen) oder zentriert (= Analyse von Kovarianzen).XXX

Der Hauptnachteil der groben Methode zur Berechnung von Faktor- / Komponentenbewertungen besteht meiner Ansicht nach darin, dass Korrelationen zwischen den geladenen Elementen nicht berücksichtigt werden. Wenn Elemente, die mit einem Faktor geladen werden, eng miteinander korrelieren und eines stärker als das andere geladen wird, kann das letztere als ein jüngeres Duplikat angesehen werden und sein Gewicht könnte verringert werden. Verfeinerte Methoden tun dies, grobe Methoden jedoch nicht.

Grobe Werte sind natürlich einfach zu berechnen, da keine Matrixinversion erforderlich ist. Der Vorteil des Grobverfahrens (das erklärt, warum es trotz der Verfügbarkeit von Computern immer noch weit verbreitet ist) besteht darin, dass es von Stichprobe zu Stichprobe stabilere Ergebnisse liefert, wenn die Stichprobe nicht ideal (im Sinne von Repräsentativität und Größe) oder nicht ideal ist Analyse waren nicht gut ausgewählt. Um einen Aufsatz zu zitieren: "Die Summenbewertungsmethode kann am wünschenswertesten sein, wenn die zum Sammeln der Originaldaten verwendeten Skalen ungeprüft und explorativ sind und keine oder nur geringe Anzeichen für Zuverlässigkeit oder Gültigkeit aufweisen." Auch ist es nicht erforderlich „Faktor“ unbedingt als univariate latent essense zu verstehen, als Faktor Analysemodell erfordert es ( siehe , siehe). Sie könnten beispielsweise einen Faktor als eine Sammlung von Phänomenen auffassen - dann ist es vernünftig, die Artikelwerte zu summieren.

Verfeinerte Methoden zur Berechnung von Faktor- / Komponentenbewertungen

Diese Methoden erfüllen die Funktionen von Faktoranalysepaketen. Sie schätzen nach verschiedenen Methoden. Während Ladungen oder die Koeffizienten linearer Kombinationen sind, um Variablen durch Faktoren / Komponenten vorherzusagen, sind die Koeffizienten, um Faktor / Komponenten-Scores aus Variablen zu berechnen.A P BBAPB

Die mit berechneten Scores sind skaliert: Sie haben Varianzen gleich oder nahe 1 (standardisiert oder nahezu standardisiert) - nicht die wahren Faktorvarianzen (die der Summe der quadratischen Strukturladungen entsprechen, siehe Fußnote 3 hier ). Wenn Sie also Faktorwerte mit der Varianz des wahren Faktors liefern müssen, multiplizieren Sie die Werte (indem Sie sie auf st.dev. 1 normiert haben) mit der Quadratwurzel dieser Varianz.B

Sie können aus der durchgeführten Analyse herausnehmen, um die Ergebnisse für neue Beobachtungen von berechnen zu können . Auch kann zum Gewicht Elementen verwendet werden , eine Skala eines Fragebogens bilden , wenn die Skala entwickelt wird durch Faktoranalyse von oder validiert. (Quadratische) Koeffizienten von können als Beiträge von Gegenständen zu Faktoren interpretiert werden. Coefficints kann standardisiert werden , wie Regressionskoeffizienten normiert (wobei ) Beiträge von Elementen mit unterschiedlichen Varianzen zu vergleichen.X B B β = b σ i t e mBXBB σfactor=1β=bσitemσfactorσfactor=1

Ein Beispiel zeigt die in PCA und FA durchgeführten Berechnungen, einschließlich der Berechnung von Punktzahlen aus der Punktzahlkoeffizientenmatrix.

Geometrische Erklärung der Belastungen ‚s (senkrecht Koordinaten) und Score - Koeffizienten ‘ s (Skew - Koordinaten) in PCA - Einstellungen auf den ersten beiden Bildern präsentieren hier .bab

Nun zu den verfeinerten Methoden.

Die Methoden

Berechnung von in PCAB

Wenn Komponentenladungen extrahiert, aber nicht gedreht werden, ist , wobei die aus Eigenwerten bestehende Diagonalmatrix ist ; diese Formel ergibt sich aus der einfachen Division jeder Spalte von durch den jeweiligen Eigenwert - die Varianz der Komponente. L AB=AL1LmA

Äquivalent dazu ist . Diese Formel gilt auch für Bauteile (Belastungen), die orthogonal (z. B. varimax) oder schräg gedreht werden.B=(P+)

Einige der in der Faktoranalyse verwendeten Methoden (siehe unten) liefern bei Anwendung innerhalb der PCA das gleiche Ergebnis.

Die berechneten Komponentenbewertungen weisen Abweichungen 1 auf und sind echte standardisierte Werte von Komponenten .

Was in der statistischen Datenanalyse als Hauptkomponenten-Koeffizientenmatrix wird und wenn es aus einer vollständigen und ohnehin nicht gedrehten Belastungsmatrix berechnet wird, wird diese in der maschinellen Lernliteratur häufig als (PCA-basierte) Aufhellungsmatrix und als standardisiertes Prinzip bezeichnet Komponenten werden als "weiße" Daten erkannt.Bp x p

Berechnung von in der Common Factor AnalysisB

Im Gegensatz zu Komponente Partituren, Faktor - Scores ist nie genau ; Sie sind nur Annäherungen an die unbekannten wahren Werte der Faktoren. Dies liegt daran, dass wir keine Werte von Gemeinsamkeiten oder Eindeutigkeiten auf der Ebene von Groß- und Kleinschreibung kennen, da Faktoren im Gegensatz zu Komponenten externe Variablen sind, die von den manifesten Variablen getrennt sind und ihre eigene, uns unbekannte Verteilung haben. Welches ist die Ursache für die Unbestimmtheit dieses Faktors . Beachten Sie, dass das Unbestimmtheitsproblem logisch unabhängig von der Qualität der Faktorlösung ist: Wie viel ein Faktor wahr ist (entspricht dem latenten Faktor, der Daten in der Grundgesamtheit generiert), ist ein weiteres Problem, als dass die Bewertungen eines Faktors durch die Befragten wahr sind (genaue Schätzungen) des extrahierten Faktors).F

Da Faktorwerte Näherungswerte sind, existieren und konkurrieren alternative Methoden zu ihrer Berechnung.

Die Regressions- oder Thurstone- oder Thompson-Methode zur Schätzung der Faktorwerte ist gegeben durch , wobei die Matrix der Strukturladungen ist (für orthogonale Faktorlösungen) , wir wissen ). Die Grundlage der Regressionsmethode befindet sich in Fußnote .S = P C A = P = S 1B=R1PC=R1SS=PCA=P=S1

Hinweis. Diese Formel für auch mit PCA verwendet werden: In PCA wird das gleiche Ergebnis wie in den im vorherigen Abschnitt genannten Formeln erzielt.B

In FA (nicht PCA) scheinen die regressiv berechneten Faktorwerte nicht ganz "standardisiert" zu sein - sie haben Abweichungen von nicht 1, sondern sind gleich dem der Regression dieser Werte durch die Variablen. Dieser Wert kann als der Bestimmungsgrad eines Faktors (seine wahren unbekannten Werte) durch Variablen interpretiert werden - das R-Quadrat der Vorhersage des realen Faktors durch sie und die Regressionsmethode maximiert ihn - die "Gültigkeit" des berechneten Faktors Partituren. Bild zeigt die Geometrie. (Bitte beachten Sie, dass der Varianz der Scores für jede verfeinerte Methode entspricht, aber nur für die Regressionsmethode entspricht diese Menge dem Anteil der Bestimmung der wahren f-Werte durch f . zählt.) 2SS R e g rSSregr(n1)2SSregr(n1)

Als eine Variante der Regressionsmethode kann man anstelle von in der Formel verwenden. Es ist gerechtfertigt, weil in einer guten Faktorenanalyse und sehr ähnlich sind. Wenn dies jedoch nicht der Fall ist , insbesondere wenn die Anzahl der Faktoren geringer als die tatsächliche Bevölkerungszahl ist, führt die Methode zu einer starken Verzerrung der Punktzahlen. Und Sie sollten diese "reproduzierte R-Regressionsmethode" nicht mit PCA verwenden. R R R RRRRm

PCAs Methode , auch bekannt als Horst's (Mulaik) oder Ideal (ized) Variable Approach (Harman). Dies ist eine Regressionsmethode mit anstelle von in der Formel. Es kann leicht gezeigt werden, dass sich die Formel dann auf reduziert (und daher müssen wir damit eigentlich nicht kennen ). Faktorwerte werden so berechnet, als wären sie Komponentenwerte. RB=(P+)'CR^RB=(P+)C

[Label "idealisierte Variable" kommt von der Tatsache , dass zu Faktor oder eine Komponente da nach Modell der vorhergesagte Anteil der Variablen'folgt , aber wir setzen für das unbekannte (ideale) , um als Punktzahl zu schätzen ; wir "idealisieren" daher ]F=(P+) ' X X X F F XX^=FPF=(P+)X^XX^FF^X

Bitte beachten Sie, dass diese Methode keine PCA-Komponenten-Scores für Faktor-Scores ausgibt, da die verwendeten Ladungen nicht die Ladungen von PCA sind, sondern die Faktoranalyse. “ nur, dass der Berechnungsansatz für Scores dem in PCA entspricht.

Bartletts Methode . Hier ist . Diese Methode versucht, für jeden Befragten die Varianz über eindeutige ("Fehler") Faktoren hinweg zu minimieren . Die Varianzen der resultierenden Common Factor Scores sind nicht gleich und können 1 überschreiten.B=(PU21P)1PU21p

Die Anderson-Rubin-Methode wurde als Modifikation der vorherigen entwickelt. . Die Varianzen der Bewertungen betragen genau 1. Diese Methode ist jedoch nur für orthogonale Faktorlösungen geeignet (bei schrägen Lösungen werden noch orthogonale Bewertungen erzielt).B=(PU21RU21P)1/2PU21

McDonald-Anderson-Rubin-Methode . McDonald erweiterte Anderson-Rubin auch auf die Lösungen für schräge Faktoren. Dieser ist also allgemeiner. Mit orthogonalen Faktoren reduziert es sich tatsächlich zu Anderson-Rubin. Einige Pakete verwenden möglicherweise die McDonald's-Methode, während sie als "Anderson-Rubin" bezeichnet werden. Die Formel lautet: , wobei und in . (Verwenden Sie natürlich nur die ersten Spalten in )B=R1/2GHC1/2GHsvd(R1/2U21PC1/2)=GΔHmG

Green's Methode . Verwendet die gleiche Formel wie McDonald-Anderson-Rubin, aber und werden wie berechnet: . (Verwenden Sie natürlich nur die ersten Spalten in ) Bei der Methode von Green werden keine Angaben zu Gemeinsamkeiten (oder Eindeutigkeiten) verwendet. Es nähert sich der McDonald-Anderson-Rubin-Methode an und nähert sich ihr an, wenn die tatsächlichen Gemeinsamkeiten der Variablen sich immer mehr angleichen. Und wenn es auf PCA-Ladevorgänge angewendet wird, gibt Green Komponentenbewertungen zurück, wie dies bei der nativen PCA-Methode der Fall ist.GHsvd(R1/2PC3/2)=GΔHmG

Krijnen et al., Methode . Diese Methode ist eine Verallgemeinerung, die die beiden vorherigen durch eine einzige Formel berücksichtigt. Wahrscheinlich werden keine neuen oder wichtigen Funktionen hinzugefügt, daher denke ich nicht darüber nach.

Vergleich zwischen den verfeinerten Methoden .

  • Die Regressionsmethode maximiert die Korrelation zwischen Faktorbewertungen und unbekannten wahren Werten dieses Faktors (dh maximiert die statistische Validität ), aber die Bewertungen sind etwas voreingenommen und korrelieren etwas falsch zwischen Faktoren (z. B. korrelieren sie selbst dann, wenn Faktoren in einer Lösung orthogonal sind). Dies sind Schätzungen der kleinsten Quadrate.

  • Die PCA- Methode ist auch die Methode der kleinsten Quadrate, jedoch mit geringerer statistischer Validität. Sie sind schneller zu berechnen; sie werden heutzutage aufgrund von Computern nicht oft in der Faktoranalyse verwendet. (In PCA ist diese Methode nativ und optimal.)

  • Bartletts Scores sind unvoreingenommene Schätzungen der wahren Faktorwerte. Die Bewertungen werden berechnet, um genau mit wahren, unbekannten Werten anderer Faktoren zu korrelieren (z. B. um sie in orthogonaler Lösung nicht zu korrelieren). Sie können jedoch immer noch ungenau mit Faktor korrelieren Noten für andere Faktoren berechnet. Dies sind Maximum-Likelihood- Schätzungen (unter multivariater Normalität der Annahme von ).X

  • Anderson-Rubin / McDonald-Anderson-Rubin und Green's Scores werden als korrelationserhaltend bezeichnet, da sie so berechnet werden, dass sie genau mit Faktor-Scores anderer Faktoren korrelieren. Korrelationen zwischen Faktorwerten entsprechen den Korrelationen zwischen den Faktoren in der Lösung (so sind beispielsweise in einer orthogonalen Lösung die Werte vollkommen unkorreliert). Die Ergebnisse sind jedoch etwas voreingenommen und ihre Gültigkeit mag bescheiden sein.

Überprüfen Sie auch diese Tabelle:

Bildbeschreibung hier eingeben

[Hinweis für SPSS-Benutzer: Wenn Sie PCA (Extraktionsmethode für "Hauptkomponenten") ausführen, aber andere Anforderungsfaktorbewertungen als die "Regressionsmethode" verwenden, ignoriert das Programm die Anforderung und berechnet stattdessen die "Regressionsbewertungen" (die genau sind) Komponentenbewertungen).]

Verweise

  1. Grice, James W. Berechnung und Bewertung von Faktor-Scores // Psychological Methods 2001, Vol. 6, Nr. 4, 430-450.

  2. DiStefano, Christine et al. Verstehen und Verwenden von Faktor-Scores // Praktische Bewertung, Forschung und Bewertung, Band 14, Nr. 20

  3. Ten Berge, Jos MFet al. Einige neue Ergebnisse zu Vorhersagemethoden für korrelationserhaltende Faktoren // Lineare Algebra und ihre Anwendungen 289 (1999) 311-318.

  4. Mulaik, Stanley A. Grundlagen der Faktoranalyse, 2. Auflage, 2009

  5. Harman, Harry H. Moderne Faktoranalyse, 3. Auflage, 1976

  6. Neudecker, Heinz. Über die beste affine unvoreingenommene kovarianzerhaltende Vorhersage von Faktor-Scores // SORT 28 (1) Januar-Juni 2004, 27-36


1 Bei multipler linearer Regression mit zentrierten Daten kann beobachtet werden, dass, wenn , die Kovarianzen und zwischen und den Prädiktoren sind:F=b1X1+b2X2s1s2F

s1=b1r11+b2r12 ,

s2=b1r12+b2r22 ,

wobei s die Kovarianzen zwischen den s sind. In der Vektornotation: . Bei der Regressionsmethode zur Berechnung der Faktor-Scores schätzen wir s aus wahren bekannten s und s.rXs=RbFbrs


2 Das folgende Bild ist beide Bilder hier in einem zusammengefasst. Es zeigt den Unterschied zwischen dem gemeinsamen Faktor und der Hauptkomponente. Die Komponente (dünner roter Vektor) liegt in dem von den Variablen (zwei blaue Vektoren) aufgespannten Raum, weiße "Ebene X". Faktor (fetter roter Vektor) überschreitet diesen Raum. Die orthogonale Projektion des Faktors in der Ebene (dünner grauer Vektor) ist die regressiv geschätzte Faktorbewertung. Nach der Definition der linearen Regression ist die Faktorbewertung in Bezug auf die kleinsten Quadrate die beste Approximation des Faktors, die von den Variablen zur Verfügung gestellt wird.

Bildbeschreibung hier eingeben

ttnphns
quelle
3
Schöne Antwort, upvoted! Ich wollte Ihnen nur sagen, dass ich von Ihren Kenntnissen der Statistik im Allgemeinen und der Faktorenanalyse im Besonderen beeindruckt bin. Wir freuen uns, mit Ihnen auf LinkedIn und anderen sozialen Netzwerken in Verbindung zu treten. Übrigens, zu Ihrer Information: Der Link zu der Site Ihres Unternehmens in Ihrem Profil ist unterbrochen.
Aleksandr Blekh
Sehr schön, +1. Können Sie etwas zur "Regressionsmethode" sagen? Warum heißt es so? Wie motiviere ich diese Formel? Wenn wir wissen, dass über (plus Rauschen) erhalten wird, warum wird dann (standardisierte Faktorwerte) als geschätzt ? XFAFR1A
Amöbe sagt Reinstate Monica
Und eine andere Frage. Wenn man eine Gaußsche Verteilung der Faktoren annimmt und den EM-Algorithmus zur Anpassung an das Modell verwendet, dann wird die maximale Wahrscheinlichkeitsfaktorbewertung durch (unter Verwendung Ihrer Notation) gegeben , was der von Ihnen als Bartlett bezeichneten Methode sehr nahe kommt, aber mit einem zusätzlichen in den Klammern. Hat dieser Ansatz in der FA-Literatur einen Namen? Warum diese kleine Diskrepanz mit Bartletts Methode? Ich habe die Formel aus Bishops "Mustererkennung und maschinelles Lernen", Abschnitt 12.2.4 übernommen. I(I+AU2A)1AU2I
Amöbe sagt Reinstate Monica
@amoeba, ich habe der Antwort ein paar Informationen zu deinem ersten Kommentar hinzugefügt. Für Ihren zweiten Kommentar - Entschuldigung, ich glaube, ich kann ihn nicht beantworten, ohne mich in Büchern zu wühlen. Wenn Sie die Antwort selbst finden, erläutern Sie sie bitte dem Publikum. :-)
ttnphns
1
Erstaunliches Update @ttnphns, tolle Arbeit. Mir ist aufgefallen, dass dieser Thread 13k-mal angesehen wurde und in einigen populären Google-Suchergebnissen einen hohen Rang haben muss.
Amöbe sagt Reinstate Monica
-2

Um PCA in der Meteorologie durchzuführen, werden die Korrelationskoeffizienten unter Verwendung eines der Pearson-Korrelationskoeffizienten erhalten (wenn die Variablen in verschiedenen Einheiten vorliegen, da die Daten so standardisiert werden können, dass sie direkt ohne Abweichungen aufgrund von Größen- / Größenunterschieden zwischen den Daten verglichen werden können). Auf diese Weise können die Korrelationskoeffizienten nur das Ausmaß der Abweichung um den Mittelwert für jeden Datensatz und zwischen jedem Datensatz vergleichen. Andernfalls kann die Kovarianzmethode verwendet werden, wenn alle Daten mit derselben Einheit gemessen werden. SPSS vereinfacht dies.

Ekta
quelle
1
Es ist völlig unverständlich - inwiefern bezieht sich die Antwort auf die Frage (dh die Berechnung der Komponenten- / Faktorwerte)?
TTNPHNS
Was geschah mit dem einfachen Ansatz zur Ableitung von PC-Scores in PCA, wenn eine Korrelation unter Einbeziehung der Eigenvektoren und der Z-Score-Matrix verwendet wurde, wie in ? Yn×p=Ep×pTZp×n
JoleT