Wie unterscheiden sich PCA und klassisches MDS? Wie wäre es mit MDS im Vergleich zu nichtmetrischem MDS? Gibt es eine Zeit, in der Sie eine der anderen vorziehen würden? Wie unterscheiden sich die Interpretationen?
quelle
Wie unterscheiden sich PCA und klassisches MDS? Wie wäre es mit MDS im Vergleich zu nichtmetrischem MDS? Gibt es eine Zeit, in der Sie eine der anderen vorziehen würden? Wie unterscheiden sich die Interpretationen?
Die klassische Torgerson -Metrik MDS wird tatsächlich durchgeführt, indem Entfernungen in Ähnlichkeiten transformiert werden und PCA (Eigenzerlegung oder Singularwertzerlegung) an diesen durchgeführt werden. [Der andere Name dieser Prozedur ( distances between objects -> similarities between them -> PCA
wobei das Laden die gesuchten Koordinaten sind) ist Principal Coordinate Analysis oder PCoA .] Daher könnte PCA der Algorithmus des einfachsten MDS genannt werden.
Nichtmetrisches MDS basiert auf dem iterativen ALSCAL- oder PROXSCAL-Algorithmus (oder einem ähnlichen Algorithmus), der eine vielseitigere Zuordnungstechnik als PCA darstellt und auch auf metrisches MDS angewendet werden kann. Während PCA behält m wichtige Dimensionen für Sie, ALSCAL / PROXSCAL passt Konfiguration m Abmessungen (Sie vordefinieren m ) und es reproduziert Unterschiedlichkeiten auf der Karte direkter und genauer als PCA in der Regel kann (Abbildung Abschnitt weiter unten).
Daher befinden sich MDS und PCA wahrscheinlich nicht auf dem gleichen Niveau, um in einer Linie zu stehen oder sich gegenüber zu stehen. PCA ist nur eine Methode, während MDS eine Analyseklasse ist. Als Mapping ist PCA ein besonderer Fall von MDS. Auf der anderen Seite ist PCA ein besonderer Fall der Faktoranalyse, bei der es sich bei einer Datenreduktion um mehr als nur eine Zuordnung handelt, während MDS nur eine Zuordnung ist.
Bezüglich Ihrer Frage zu metrischem MDS im Vergleich zu nicht metrischem MDS gibt es wenig zu kommentieren, da die Antwort einfach ist. Wenn ich glaube, dass meine Eingabeunterschiede so nahe beieinander liegen, dass eine lineare Transformation ausreicht, um sie im m-dimensionalen Raum abzubilden, bevorzuge ich metrische MDS. Wenn ich nicht glaube, ist eine monotone Transformation erforderlich, die die Verwendung eines nichtmetrischen MDS impliziert.
Eine Anmerkung zur Terminologie für einen Leser. Der Begriff Classic (al) MDS (CMDS) kann in einer umfangreichen Literatur zu MDS zwei verschiedene Bedeutungen haben, daher ist er nicht eindeutig und sollte vermieden werden. Eine Definition ist, dass CMDS ein Synonym für Torgersons metrisches MDS ist. Eine andere Definition ist, dass CMDS ein beliebiges MDS (durch einen beliebigen Algorithmus; metrische oder nichtmetrische Analyse) mit Einzelmatrix- Eingabe ist (da es Modelle gibt, die viele Matrizen gleichzeitig analysieren - individuelles "INDSCAL" -Modell und repliziertes Modell).
Illustration zur Antwort . Einige Punktwolken (Ellipsen) werden auf einer eindimensionalen MDS-Karte abgebildet. Ein Punktepaar wird in roten Punkten angezeigt.
Iteratives oder "wahres" MDS zielt direkt darauf ab, paarweise Abstände zwischen Objekten zu rekonstruieren. Denn es ist die Aufgabe eines jeden MDS . Verschiedene Stress oder Fehlanpassungskriterien zwischen minimiert werden konnte o riginal Abstände und Entfernungen auf der m ap: , , . Ein Algorithmus kann auf diese Weise eine monotone Transformation enthalten (nicht-metrisches MDS) oder nicht (metrisches MDS). ‖ D 2 o - D 2 m ‖ 1 ‖ D o - D m ‖ 1
PCA-basiertes MDS (Torgerson's oder PCoA) ist nicht gerade. Dadurch werden die quadratischen Abstände zwischen Objekten im ursprünglichen Raum und ihren Bildern auf der Karte minimiert. Dies ist keine echte MDS-Aufgabe. es ist als MDS nur in dem Ausmaß erfolgreich, in dem die weggeworfenen Junior-Hauptachsen schwach sind. Wenn viel mehr Varianz erklärt als kann erstere allein paarweise Abstände in der Wolke widerspiegeln, insbesondere für Punkte, die weit voneinander entfernt entlang der Ellipse liegen. Iteratives MDS wird immer gewinnen, insbesondere wenn die Karte sehr niedrig dimensioniert sein soll. Iteratives MDS ist auch erfolgreicher, wenn eine Wolkenellipse dünn ist, erfüllt aber die mds-Aufgabe besser als PCoA. Durch die Eigenschaft der Doppelzentrierungsmatrix ( hier beschriebenP 2 ≤ D o ≤ 2 2 - ≤ D m ≤ 2 2) PCoA scheint minimieren , was sich von den obigen Minimierungen unterscheidet.
Erneut projiziert PCA Cloud- Punkte auf den vorteilhaftesten Subraum, in dem nur der Körper gespeichert werden kann. Es werden keine paarweisen Abstände projiziert , relative Positionen von Punkten auf einem Unterraum, was in dieser Hinsicht am meisten spart , wie dies bei iterativem MDS der Fall ist. Historisch gesehen wird PCoA / PCA jedoch als eine der Methoden des metrischen MDS angesehen.
Ähm ... ganz anders. In PCA erhalten Sie die multivariaten kontinuierlichen Daten (ein multivariater Vektor für jedes Subjekt) und Sie versuchen herauszufinden, ob Sie nicht so viele Dimensionen benötigen, um sie zu konzipieren. In (metrischen) MDS erhalten Sie die Matrix der Abstände zwischen den Objekten und Sie versuchen herauszufinden, wo sich diese Objekte im Raum befinden (und ob Sie einen 1D-, 2D-, 3D- usw. Raum benötigen). In nicht metrischen MDBs wissen Sie nur, dass die Objekte 1 und 2 weiter entfernt sind als die Objekte 2 und 3. Sie versuchen daher, dies zu quantifizieren, indem Sie die Dimensionen und Positionen ermitteln.
Mit bemerkenswerter Vorstellungskraft kann man sagen, dass ein gemeinsames Ziel von PCA und MDS darin besteht, Objekte in 2D oder 3D zu visualisieren. Angesichts der Unterschiedlichkeit der Eingaben werden diese Methoden jedoch in keinem multivariaten Lehrbuch als entfernt verwandt erörtert. Ich würde vermuten, dass Sie die für PCA verwendbaren Daten in für MDS verwendbare Daten konvertieren können (z. B. durch Berechnen der Mahalanobis-Abstände zwischen Objekten mithilfe der Beispiel-Kovarianzmatrix), aber dies würde sofort zu einem Informationsverlust führen: MDS wird nur definiert Position und Rotation, und die beiden letzteren können informativer mit PCA durchgeführt werden.
Wenn ich jemandem kurz die Ergebnisse eines nicht metrischen MDB zeigen und ihm eine ungefähre Vorstellung davon geben möchte, was es tut, ohne ins Detail zu gehen, könnte ich sagen:
quelle
Zwei Arten von metrischen MDB
Die Aufgabe der metrischen mehrdimensionalen Skalierung (MDS) lässt sich abstrakt wie folgt formulieren: Finden Sie bei einer Matrix von paarweisen Abständen zwischen Punkten eine niedrigdimensionale Einbettung von Datenpunkten in so dass Die euklidischen Abstände zwischen ihnen entsprechen ungefähr den angegebenen Abständen:D n R k ‖ x i - x j ‖ ≈ D i j .n × n D n Rk
Wenn hier "ungefähr" im üblichen Sinne eines Rekonstruktionsfehlers verstanden wird, dh wenn das Ziel darin besteht, die als "Stress" bezeichnete Kostenfunktion zu minimieren: dann entspricht die Lösung nicht PCA. Die Lösung wird nicht durch eine geschlossene Formel angegeben und muss durch einen dedizierten iterativen Algorithmus berechnet werden.
"Classical MDS", auch bekannt als "Torgerson MDS", ersetzt diese Kostenfunktion durch eine verwandte, aber nicht äquivalente Funktion , die als "Stamm" bezeichnet wird: das versucht, den Rekonstruktionsfehler zentrierter Skalarprodukte anstelle von Abständen zu minimieren. Es stellt sich heraus, dass aus berechnet werden kann (wenn euklidische Abstände sind) und dass die Minimierung des Rekonstruktionsfehlers von genau das ist, was PCA tut, wie im nächsten Abschnitt gezeigt.K c D D
Klassisches (Torgerson) MDS für euklidische Entfernungen entspricht PCA
Lassen Sie die Daten in der Matrix der Größe mit Beobachtungen in Zeilen und Merkmalen in Spalten gesammelt werden . Sei die zentrierte Matrix mit subtrahierten Spaltenmitteln. n × kX n × k Xc
Dann PCA darauf hinaus, die Singularwertzerlegung , wobei die Spalten von die Hauptkomponenten sind. Ein üblicher Weg, um sie zu erhalten, ist über eine Neukomposition der Kovarianzmatrix , aber ein anderer möglicher Weg ist, eine Neukomposition von durchzuführen die Gram-Matrix : Hauptkomponenten sind ihre durch die Quadratwurzeln skalierten Eigenvektoren der jeweiligen Eigenwerte. UXc= U S V⊤ 1U S Kc=X ≤ c X ≤ c =US21nX⊤cX⊤c Kc= X⊤cX⊤c= U S2U⊤
Es ist leicht zu erkennen, dass , wobei eine Matrix von Einsen ist. Daraus erhalten wir sofort das wobei eine Gramm-Matrix von nicht zentrierten Daten ist. Dies ist nützlich: Wenn wir die Gram-Matrix mit nicht zentrierten Daten haben, können wir sie direkt zentrieren, ohne zu selbst zurückzukehren. Diese Operation wird manchmal aufgerufenXc= ( I - 1n1n) X 1n n × n
Betrachte nun eine Matrix von paarweisen euklidischen Entfernungen mit. Kann diese Matrix in konvertiert werden, um PCA durchzuführen? Es stellt sich heraus, dass die Antwort ja ist.n × n D Dich j= ∥ xich- xj∥ Kc
In der Tat sehen wir nach dem Kosinusgesetz, dass Also unterscheidet sich von nur durch einige Zeilen- und Spaltenkonstanten (hier bedeutet elementweises Quadrat!). Das heißt, wenn wir es doppelt , erhalten wir :
Was bedeutet, dass wir ausgehend von der Matrix der paarweisen euklidischen Abstände eine PCA durchführen und Hauptkomponenten erhalten können. Dies ist genau das, was das klassische (Torgerson) MDS macht: , daher entspricht sein Ergebnis PCA.D D ↦ Kc↦ U S
Natürlich, wenn ein anderes Entfernungsmaß anstelle von, dann führt klassisches MDB zu etwas anderem.∥ xich- xj∥
Referenz: Die Elemente des statistischen Lernens , Abschnitt 18.5.2.
quelle
PCA liefert die EXAKTEN gleichen Ergebnisse wie klassisches MDS, wenn der euklidische Abstand verwendet wird.
Ich zitiere Cox & Cox (2001), S. 43-44:
Der Abschnitt in Cox & Cox erklärt es ziemlich klar:
quelle
same results as classical MDS
. Mit "klassischem MDS" müssen Sie hier Torgersons MDS meinen. Dann ist die Aussage in der Tat wahr, denn Torgersons MDS ist tatsächlich PCA (nur ausgehend von der Distanzmatrix). Wenn Sie "klassisches MDB" anders definieren (siehe meine Antwort), ist die Aussage nicht wahr.Vergleich: "Metric MDS liefert das gleiche Ergebnis wie PCA" - prozedural - wenn wir uns ansehen, wie SVD verwendet wird, um das Optimum zu erzielen. Die erhaltenen hochdimensionalen Kriterien sind jedoch unterschiedlich. PCA verwendet eine zentrierte Kovarianzmatrix, während MDS eine Grammmatrix verwendet, die durch Doppelzentrierungsabstandsmatrizen erhalten wird.
Der Unterschied wird mathematisch ausgedrückt: PCA kann als Maximierung von über unter der Bedingung angesehen werden, dass orthogonal ist, wodurch Achsen / Hauptkomponenten erhalten werden. Bei der mehrdimensionalen Skalierung wird eine Grammmatrix (eine psd-Matrix, die als ) aus dem euklidischen Abstand zwischen den Zeilen in berechnet und das Folgende wird über minimiert . minimieren: .XXZTZXY| | G-YTY| | 2 FTr ( XT( Ich- 1ne eT) X) X X ZTZ X Y. | | G- YTY.| |2F
quelle