Ich weiß, dass Adaboost versucht, einen starken Klassifikator unter Verwendung einer linearen Kombination einer Reihe schwacher Klassifikatoren zu erzeugen.
Ich habe jedoch einige Artikel gelesen, in denen darauf hingewiesen wird, dass Adaboost und SVMs unter bestimmten Bedingungen und in bestimmten Fällen harmonisch funktionieren (obwohl SVM ein starker Klassifikator ist) .
Ich kann aus architektonischer und programmtechnischer Sicht nicht verstehen, wie sie in Kombination funktionieren. Ich habe viele Artikel gelesen (vielleicht die falschen), die nicht klar erklärten, wie sie zusammenarbeiten.
Kann jemand etwas Licht darauf werfen, wie sie in einer Kombination für eine effektive Klassifizierung arbeiten? Hinweise auf einige Artikel / Artikel / Zeitschriften sind ebenfalls willkommen.
Das Papier AdaBoost mit SVM-basierten Komponentenklassifikatoren von Xuchun Li et al. Gibt ebenfalls eine Intuition.
In einer kurzen, aber vielleicht voreingenommenen Zusammenfassung: Sie versuchen, SVM-Klassifikatoren "schwach" zu machen (etwas mehr als 50%), indem sie die Parameter optimieren, um zu vermeiden, dass ein Klassifikator zu viel Gewicht hat oder alle Klassifikatoren ähnlich feuern.
quelle