Ich versuche, die Manifold-Regularisierung in Support Vector Machines (SVMs) in Matlab zu implementieren. Ich folge den Anweisungen in der Arbeit von Belkin et al. (2006), da ist die Gleichung drin:
wobei V eine Verlustfunktion ist und das Gewicht der Norm der Funktion in der RHKS (oder Umgebungsnorm) ist, erzwingt dies eine für die möglichen Lösungen, und ist das Gewicht der Norm der Funktion in die niedrigdimensionale Mannigfaltigkeit (oder intrinsische Norm), die entlang des abgetasteten M reibungslos wirkt. Der Umgebungs-Regularisierer macht das Problem gut gestellt, und seine Anwesenheit kann aus praktischer Sicht wirklich hilfreich sein, wenn die Annahme der Mannigfaltigkeit in geringerem Maße gilt .
Es wurde in Belkin et al. (2006), dass eine Erweiterung in Bezug auf Punkte von S zulässt , Die Entscheidungsfunktion, die unterscheidet zwischen Klasse +1 und -1 ist .
Das Problem hierbei ist, dass ich versuche, SVM mit LIBSVM in MATLAB zu trainieren, aber den ursprünglichen Code nicht ändern möchte. Daher habe ich die vorberechnete Version von LIBSVM gefunden, die anstelle von Eingabedaten und Ausgabegruppen Parameter verwendet , berechnet die Kernal-Matrix und die Ausgabegruppen und trainiert das SVM-Modell. Ich versuche, es mit der regulierten Kernel-Matrix (Gram Matrix) zu füttern und lasse es den Rest erledigen.
Ich habe versucht, die Formel zu finden, die den Kernal reguliert, und dazu gekommen: als Identitätsmatrix mit derselben Dimension wie die Kernelmatrix zu definieren,K.
In welcher die Laplace-Graph-Matrix ist, ist die Kernel-Matrix und ist die Identitätsmatrix. Und wird unter Verwendung der inneren Multiplikation zweier Matrizen und berechnet .K.
Gibt es jemanden, der mir helfen kann, herauszufinden, wie dies berechnet wird?
Antworten:
Während ich es beim Testendes Artikelsnicht getestet habe, wird das Optimierungsproblem sowohl für SVM als auch für LapSVM wie folgt angegeben:Für SVM :
Während für LapSVM wir Folgendes haben (Klammern hinzugefügt, um die Beziehung klarer zu machen):
Wir können wenn:
Letzte:
Ich kann bestätigen, dass es funktioniert. Sehen Sie sich dieses Beispiel mit einem Gaußschen Kernel an und wie sich die KlasseγI=2500 γI=0
virginica
in die unbeschrifteten Daten wenn verglichen mit , der Standard-SVM.quelle