Überwachte Dimensionsreduktion

13

Ich habe einen Datensatz bestehend aus 15K markierten Proben (von 10 Gruppen). Ich möchte die Dimensionsreduktion in 2 Dimensionen anwenden, die die Kenntnis der Etiketten berücksichtigen.

Wenn ich "Standard" -Verfahren zur unbeaufsichtigten Dimensionsreduktion wie PCA verwende, scheint das Streudiagramm nichts mit den bekannten Beschriftungen zu tun zu haben.

Hat das, wonach ich suche, einen Namen? Ich möchte einige Referenzen von Lösungen lesen.

Roy
quelle
3
Wenn Sie nach linearen Methoden suchen, sollten Sie die lineare Diskriminanzanalyse (LDA) verwenden.
Amöbe sagt Reinstate Monica
@amoeba: Danke. Ich habe es benutzt und es lief viel besser!
Roy
Schön, dass es geholfen hat. Ich gab eine kurze Antwort mit einigen weiteren Hinweisen.
Amöbe sagt Reinstate Monica
1
Eine Möglichkeit wäre, zuerst auf den neundimensionalen Raum zu reduzieren, der die Klassenschwerpunkte überspannt, und dann PCA zu verwenden, um weiter auf zwei Dimensionen zu reduzieren.
A. Donda
Verwandte Themen : stats.stackexchange.com/questions/16305 (möglicherweise doppelt, möglicherweise auch umgekehrt. Ich werde darauf zurückkommen, nachdem ich meine Antwort unten aktualisiert habe.)
amoeba sagt Reinstate Monica

Antworten:

27

Die am weitesten verbreitete lineare Methode zur überwachten Dimensionsreduktion ist die lineare Diskriminanzanalyse (LDA). Es wurde entwickelt, um eine niedrig dimensionierte Projektion zu finden, die die Klassentrennung maximiert. Viele Informationen dazu finden Sie in unserem Tag und in jedem Lehrbuch zum maschinellen Lernen, wie z. B. den frei verfügbaren The Elements of Statistical Learning .

Hier ist ein Bild, das ich hier mit einer schnellen Google-Suche gefunden habe. Es zeigt eindimensionale PCA- und LDA-Projektionen, wenn der Datensatz zwei Klassen enthält (Ursprung von mir hinzugefügt):

PCA gegen LDA

Ein anderer Ansatz nennt sich Partial Least Squares (PLS). LDA kann so interpretiert werden, dass nach Projektionen gesucht wird, die die höchste Korrelation mit den Dummy-Variablen aufweisen, die Gruppenbezeichnungen codieren (in diesem Sinne kann LDA als Spezialfall der kanonischen Korrelationsanalyse (CCA) angesehen werden). Im Gegensatz dazu sucht PLS nach Projektionen mit der höchsten Kovarianz bei Gruppenbezeichnungen. Während LDA für zwei Gruppen nur eine Achse ergibt (wie im Bild oben), werden in PLS viele Achsen nach abnehmender Kovarianz geordnet. Beachten Sie, dass wenn mehr als zwei Gruppen im Datensatz vorhanden sind, es unterschiedliche "Geschmacksrichtungen" von PLS gibt, die zu etwas unterschiedlichen Ergebnissen führen.

Aktualisieren (2018)

Ich sollte Zeit finden, um diese Antwort zu erweitern. Dieser Thread scheint beliebt zu sein, aber meine ursprüngliche Antwort oben ist sehr kurz und nicht detailliert genug.

k

Amöbe sagt Reinstate Monica
quelle
1
nette Grafik, erklärt vieles
Titou