Kürzlich habe ich Platt's Skalierung von SVM-Ausgaben verwendet, um die Wahrscheinlichkeiten von Standardereignissen abzuschätzen. Direktere Alternativen scheinen "Kernel Logistic Regression" (KLR) und die zugehörige "Import Vector Machine" zu sein.
Kann jemand sagen, welche Kernel-Methode, die Wahrscheinlichkeitsausgaben liefert, derzeit Stand der Technik ist? Gibt es eine R-Implementierung von KLR?
Vielen Dank für Ihre Hilfe!
logistic
svm
kernel-trick
RichardN
quelle
quelle
Antworten:
Die Gaußsche Prozessklassifizierung (unter Verwendung der Erwartungsausbreitung) ist wahrscheinlich der Stand der Technik beim maschinellen Lernen. Es gibt ein ausgezeichnetes Buch von Rasmussen und Williams (kostenlos herunterladbar), dessen Website eine sehr gute MATLAB-Implementierung hat. Mehr Software, Bücher, Papiere etc. hier . In der Praxis wird KLR bei den meisten Problemen wahrscheinlich genauso gut funktionieren. Die Hauptschwierigkeit besteht in der Auswahl der Kernel- und Regularisierungsparameter, was wahrscheinlich am besten durch Kreuzvalidierung erfolgt, obwohl eine ausgelassene Kreuzvalidierung angenähert werden kann sehr effizient, siehe Cawley und Talbot (2008).
quelle
Ich denke, Sie wissen, dass der Kernel für die logistische Regression nicht parametrisch ist, also haben Sie zuerst diese Einschränkung.
In Bezug auf das R-Paket ist das, das ich kenne und das ziemlich gut funktioniert, np : Nichtparametrische Kernel-Glättungsmethoden für gemischte Datentypen
Dieses Paket bietet eine Vielzahl nichtparametrischer (und semiparametrischer) Kernelmethoden, die eine Mischung aus kontinuierlichen, ungeordneten und geordneten Faktordatentypen nahtlos verarbeiten.
Den Stand der Technik in Bezug auf Kernell ich Experiment empfehlen kann mit den in diesem beschriebenen Papier aus dem Jahr 2009. Lesen Sie es sorgfältig zu wählen , das am besten und aktuelleren für Sie ist.
quelle