Gaußsche Diskriminanzanalysemodelle lernen und wenden dann die Bayes-Regel an, um P ( y | x ) = P ( x | y ) P p r i o r ( y ) zu bewerten.
quelle
Gaußsche Diskriminanzanalysemodelle lernen und wenden dann die Bayes-Regel an, um P ( y | x ) = P ( x | y ) P p r i o r ( y ) zu bewerten.
Wenn du meinst LDA würde ich sagen, der Name, lineare Diskriminanzanalyse, lässt sich historisch zumindest auf Fisher's Papier von 1936 zurückführen , das nach meinem besten Wissen der gegenwärtigen Terminologie und Unterscheidung beim maschinellen Lernen zwischen einer diskriminierenden und einer diskriminierenden Analyse vorausgeht ein generatives Modell. Nicht, dass Fisher es direkt als lineare Diskriminanzanalyse bezeichnete, aber er forderte ausdrücklich eine lineare Diskriminanzfunktion. Als merkwürdige Nebenbemerkung betrachtete Fisher die Diskriminierung für den berühmten Iris-Datensatz in der Zeitung.
Fisher hat übrigens die lineare Methode zur Diskriminierung im Sinne eines generativen Modells nicht vorgestellt. Er suchte eine lineare Kombination (zwei Klassen), die das Verhältnis der maximiert zwischen den Gruppen Varianz auf den innerhalb der Gruppe Varianz , die nicht eine Normalitätsannahme erfordert. Details und wie sie sich auf LDA als Bayes-Regel für ein generatives Modell beziehen, finden Sie in Kapitel 3 in Brian Ripleys Buch "Pattern Recognition and Neural Networks".
Es ist einfach, wenn Sie zwei Klassen haben Der GDA macht von dieser Annahme Gebrauch:
Und bekommt dann die Parameter unter Verwendung der Maximum-Likelihood-Schätzung.
Es ist also Gauß, weil es eine Gauß- Annahme für die gruppeninterne Verteilung verwendet (möglicherweise möchten Sie stattdessen Uniform verwenden) und diskriminant, weil es darauf abzielt, Daten in Gruppen aufzuteilen.
Weitere Infos finden Sie hier .