Ich habe das Modell für die logistische Regression für mehrere Klassen erhalten, das von gegeben ist
Dabei ist k die Anzahl der Klassen. Theta ist der zu schätzende Parameter. j ist die j-te Klasse. Xi sind die Trainingsdaten
Eine Sache, die ich nicht verstanden habe, ist, der Nenner Teil das Modell normalisiert hat. Ich meine, dadurch bleibt die Wahrscheinlichkeit zwischen 0 und 1.
Ich bin an logistische Regression gewöhnt
Eigentlich bin ich mit der Nomalisierungssache verwechselt. In diesem Fall, da es sich um eine Sigmoid-Funktion handelt, darf der Wert niemals kleiner als 0 oder größer als 1 sein. Aber ich bin im Fall mehrerer Klassen verwirrt. Wieso ist es so?
Dies ist meine Referenz https://list.scms.waikato.ac.nz/pipermail/wekalist/2005-February/029738.html . Ich denke, es hätte sein sollen, zu normalisieren
quelle
Antworten:
Ihre Formel ist falsch (die Obergrenze der Summe). Bei der logistischen Regression mit Klassen ( ) erstellen Sie grundsätzlich binäre logistische Regressionsmodelle, bei denen Sie eine Klasse als Referenz oder Drehpunkt auswählen. Normalerweise wird die letzte Klasse als Referenz ausgewählt. Somit kann die Wahrscheinlichkeit der Referenzklasse berechnet werden durchDie allgemeine Form der Wahrscheinlichkeit istAls Klasse gilt Ihre Referenz und damitK K>2 K−1 K
quelle
Ich denke, Sie werden durch einen Tippfehler verwirrt: Ihr sollte in der ersten Gleichung . Die Einsen, die Sie im logistischen Fall sehen, sind tatsächlich s, z. B. wenn es ein th . k - 1 exp ( 0 ) k & thgr ; = 0k k−1 exp(0) k θ=0
Angenommen, . Beachten Sie nun, dass Sie von der letzten Formulierung zur logistischen Regressionsversion wie Ersetzen Sie für mehrere Klassen einfach den Nenner in den ersten beiden Größen durch eine Summe über potenzierten linearen Prädiktoren. exp ( b )θ1X=b
quelle