"Fisher's Discriminant Analysis" ist einfach LDA in einer Situation von 2 Klassen. Bei nur 2 Klassen ist eine manuelle Berechnung möglich und die Analyse steht in direktem Zusammenhang mit der multiplen Regression. LDA ist die direkte Erweiterung von Fishers Idee für die Situation einer beliebigen Anzahl von Klassen und verwendet Matrixalgebra-Geräte (wie z. B. eigendecomposition), um diese zu berechnen. Daher kann der Begriff "Fisher's Diskriminanzanalyse" heute als veraltet angesehen werden. Stattdessen sollte "Lineare Diskriminanzanalyse" verwendet werden. Siehe auch . Die Diskriminanzanalyse mit 2+ Klassen (Mehrfachklassen) ist nach ihrem Algorithmus kanonisch (extrahiert Dicriminanten als kanonische Variablen); seltener Begriff "Canonical Discriminant Analysis"
Fisher verwendete die sogenannten "Fisher-Klassifizierungsfunktionen", um Objekte zu klassifizieren, nachdem die Diskriminanzfunktion berechnet wurde. Heutzutage wird im Rahmen des LDA-Verfahrens ein allgemeinerer Bayes-Ansatz zur Klassifizierung von Objekten verwendet.
Auf Ihre Bitte um Erklärungen zu LDA kann ich Ihnen meine Antworten senden: Extraktion in LDA , Klassifizierung in LDA , LDA unter verwandten Verfahren . Auch dies , dies , diese Fragen und Antworten.
Genau wie für ANOVA die Annahme gleicher Varianzen erforderlich ist, ist für LDA die Annahme gleicher Varianz-Kovarianz-Matrizen (zwischen den Eingangsvariablen) der Klassen erforderlich. Diese Annahme ist wichtig für die Klassifizierungsstufe der Analyse. Wenn sich die Matrizen wesentlich unterscheiden, werden Beobachtungen tendenziell der Klasse zugeordnet, in der die Variabilität größer ist. Um das Problem zu lösen, wurde QDA erfunden. QDA ist eine Modifikation von LDA, die die obige Heterogenität der Kovarianzmatrizen von Klassen berücksichtigt.
Wenn Sie die Heterogenität haben (wie zum Beispiel durch den Box-M-Test festgestellt) und keine QDA zur Hand haben, können Sie die LDA weiterhin im Regime der Verwendung einzelner Kovarianzmatrizen (anstelle der gepoolten Matrix) der Diskriminanten bei der Klassifizierung verwenden . Dies löst das Problem teilweise, wenn auch weniger effektiv als bei der QDA, da dies - wie bereits erwähnt - die Matrizen zwischen den Diskriminanten und nicht zwischen den ursprünglichen Variablen sind (welche Matrizen unterschieden sich).
Lassen Sie mich Ihre Beispieldaten selbst analysieren.
Antworte auf @ zyxues Antwort und Kommentare
LDA ist das, was Sie in Ihrer Antwort als FDA definiert haben. LDA erste Extrakte linear Konstrukte (genannt Diskriminanten) , die zwischen der innerhalb Trennung maximieren, und dann verwenden diese (Gaussian) Klassifizierung durchzuführen. Wenn (wie Sie sagen) LDA nicht mit der Aufgabe verbunden wäre, die Diskriminanten zu extrahieren, wäre LDA anscheinend nur ein Gauß-Klassifikator, und es wäre überhaupt kein Name "LDA" erforderlich.
In dieser Klassifizierungsstufe geht die LDA sowohl von Normalität als auch von Varianz-Kovarianz-Homogenität der Klassen aus. DasSwSws sind gleich, die besagten Kovarianzen innerhalb der Klasse sind alle gleich, Identität; das Recht, sie zu benutzen, wird absolut.)
Der Gaußsche Klassifikator (die zweite Stufe der LDA) verwendet die Bayes-Regel, um Beobachtungen den Klassen durch die Diskriminanten zuzuordnen. Das gleiche Ergebnis kann über sogenannte lineare Klassifizierungsfunktionen von Fisher erzielt werden, die die ursprünglichen Merkmale direkt nutzen. Bayes 'Ansatz, der auf Diskriminanten basiert, ist jedoch ein wenig allgemein, da er die Verwendung separater Kovarianzmatrizen für Klassendiskriminanten zusätzlich zu der Standardmethode zur Verwendung einer, der gepoolten, erlaubt. Außerdem wird es möglich sein, die Klassifizierung auf einer Untergruppe von Diskriminanten aufzubauen.
Wenn es nur zwei Klassen gibt, können beide Stufen der LDA zusammen in einem Durchgang beschrieben werden, da sich "Latente Extraktion" und "Beobachtungsklassifikation" dann auf dieselbe Aufgabe reduzieren.
Es fällt mir schwer zuzustimmen, dass die FDA eine LDA für zwei Klassen ist, wie von @ttnphns vorgeschlagen.
Ich empfehle zwei sehr informative und schöne Vorträge zu diesem Thema von Professor Ali Ghodsi:
Für mich sind LDA und QDA ähnlich, da sie beide Klassifizierungstechniken mit Gaußschen Annahmen sind. Ein Hauptunterschied zwischen den beiden besteht darin, dass LDA davon ausgeht, dass die Merkmalskovarianzmatrizen beider Klassen gleich sind, was zu einer linearen Entscheidungsgrenze führt. Im Gegensatz dazu ist QDA weniger streng und erlaubt unterschiedliche Merkmal-Kovarianz-Matrizen für unterschiedliche Klassen, was zu einer quadratischen Entscheidungsgrenze führt. In der folgenden Abbildung von scikit-learn sehen Sie , wie die quadratische Entscheidungsgrenze aussieht.
Einige Kommentare zu den Nebenhandlungen :
Andererseits ist die FDA eine ganz andere Spezies, die nichts mit der Annahme von Gauß zu tun hat. Die FDA versucht, eine lineare Transformation zu finden, um den mittleren Abstand zwischen den Klassen zu maximieren und gleichzeitig die Varianz innerhalb der Klasse zu minimieren . Die 2. Vorlesung erklärt diese Idee sehr schön. Im Gegensatz zu LDA / QDA führt die FDA keine Klassifizierung durch, obwohl die nach der Transformation von der FDA gefundenen Merkmale zur Klassifizierung verwendet werden könnten, z. B. unter Verwendung von LDA / QDA oder SVM oder anderen.
quelle
FDA doesn't do classification, although the features obtained after transformation found by FDA could be used for classification
dann würde ich sagen, es ist, was ich "Extraktionsphase von LDA" nenne. Natürlich diese extrahierten Funktionen (die Diskriminanzfunktionen) - Sie können sie verwenden, wie Sie möchten. In der Standard-LDA-Klassifikation werden sie als Gaußsche Klassifikatoren verwendet.