Eine intuitive Erklärung des AdaBoost-Algorithmus
Lassen Sie mich auf der hervorragenden Antwort von @ Randel aufbauen und den folgenden Punkt veranschaulichen
- In Adaboost werden "Mängel" durch Datenpunkte mit hohem Gewicht identifiziert
AdaBoost Rückblick
Gm(x) m=1,2,...,M
G(x)=sign(α1G1(x)+α2G2(x)+...αMGM(x))=sign(∑m=1MαmGm(x))
AdaBoost an einem Spielzeugbeispiel
M=10
Visualisierung der Sequenz schwacher Lernender und der Stichprobengewichte
m=1,2...,6
Erste Iteration:
- Die Entscheidungsgrenze ist sehr einfach (linear), da dies schwache Lernende sind
- Alle Punkte haben erwartungsgemäß die gleiche Größe
- 6 blaue Punkte liegen im roten Bereich und sind falsch klassifiziert
Zweite Iteration:
- Die lineare Entscheidungsgrenze hat sich geändert
- Die zuvor falsch klassifizierten blauen Punkte sind jetzt größer (größeres sample_weight) und haben die Entscheidungsgrenze beeinflusst
- 9 blaue Punkte sind jetzt falsch klassifiziert
Endergebnis nach 10 Iterationen
αm
([1,041, 0,875, 0,837, 0,781, 1,04, 0,938 ...
Wie erwartet hat die erste Iteration den größten Koeffizienten, da sie die wenigsten Fehlklassifizierungen aufweist.
Nächste Schritte
Eine intuitive Erklärung zur Gradientenanhebung - noch zu vervollständigen
Quellen und weiterführende Literatur:
Xavier Bourret Sicotte
quelle