Ich habe einige eng verwandte Fragen zu schwachen Lernenden im Ensemble-Lernen (z. B. Boosten).
- Das hört sich vielleicht dumm an, aber was sind die Vorteile von schwachen Lernenden gegenüber starken Lernenden? (zB warum nicht mit "starken" Lernmethoden aufladen?)
- Gibt es eine Art "optimale" Stärke für die schwachen Lernenden (z. B. während alle anderen Ensemble-Parameter unverändert bleiben)? Gibt es einen "Sweet Spot", wenn es um ihre Stärke geht?
- Wie können wir die Stärke eines schwachen Lernenden in Bezug auf die resultierende Ensemblemethode messen? Wie können wir den Grenznutzen eines Ensembles quantitativ messen?
- Wie vergleichen wir mehrere schwache Lernalgorithmen, um zu entscheiden, welche für eine bestimmte Ensemblemethode verwendet werden sollen?
- Wenn eine bestimmte Ensemble-Methode eher schwachen als starken Klassifikatoren hilft, wie können wir dann feststellen, dass ein bestimmter Klassifikator bereits "zu stark" ist, um beim Boosten signifikante Gewinne zu erzielen?
machine-learning
boosting
ensemble
Amelio Vazquez-Reina
quelle
quelle
Erstens sind die Begriffe "schwach" und "stark" nur schwach definiert. Aus meiner Sicht müssen sie relativ zum optimalen Bayes-Klassifikator definiert werden, der das Ziel jedes Trainingsalgorithmus ist. In diesem Sinne antworte ich auf drei der Punkte wie folgt.
quelle