Bagging ist die Erzeugung mehrerer Prädiktoren, die wie ein einzelner Prädiktor zusammenarbeiten. Dropout ist eine Technik, die neuronalen Netzen beibringt, alle möglichen Teilnetze zu mitteln. Wenn man sich die wichtigsten Kaggle-Wettbewerbe ansieht, scheint es, dass diese beiden Techniken sehr oft zusammen angewendet werden. Ich kann keinen theoretischen Unterschied sehen, abgesehen von der tatsächlichen Implementierung. Wer kann mir erklären, warum wir beide in einer realen Anwendung verwenden sollten? und warum verbessert sich die Leistung, wenn wir beide einsetzen?
Ich habe in Max Out Networks einen Vergleich der beiden Arten von Netzen gefunden, der besagt:
Hoffe, es wird nützlich sein.
quelle
Dropout ist eine Regularisierungstechnik, die verwendet wird, um eine Überanpassung in großen neuronalen Netzen zu vermeiden, indem einige der Neuronen in verborgenen Schichten (daher der Name Dropout für die ausgelassenen Neuronen) nach dem Training weggelassen werden. Wenn das Netzwerk während des Trainings wirklich etwas gelernt hat, sollte der Ausfall einiger Neuronen die Genauigkeit der Vorhersagen nicht negativ beeinflussen.
Das Absacken ist auch eine effektive Regularisierungstechnik, mit der Abweichungen von den Trainingsdaten verringert und die Genauigkeit Ihres Modells verbessert werden, indem mehrere Kopien davon verwendet werden, die auf verschiedenen Teilmengen von Daten aus dem anfänglichen / größeren Trainingsdatensatz trainiert wurden.
siehe diese Frage
quelle