Stellen Sie einem Statistiker eine Frage, und ihre Antwort lautet "es kommt darauf an".
Kommt drauf an . Abgesehen von der Art des Modells (gute Punkte!), Der Anzahl der Trainingssollwerte und der Anzahl der Prädiktoren? Wenn das Modell für die Klassifizierung vorgesehen ist, würde ein großes Klassenungleichgewicht dazu führen, dass ich die Anzahl der Wiederholungen erhöhe. Wenn ich ein Feature-Auswahlverfahren erneut abtaste, würde ich mich auf weitere Resamples ausrichten.
Denken Sie bei jeder in diesem Zusammenhang verwendeten Resampling-Methode daran, dass Sie (im Gegensatz zum klassischen Bootstrapping) nur genügend Iterationen benötigen, um eine "genau genug" Schätzung des Verteilungsmittelwerts zu erhalten. Das ist subjektiv, aber jede Antwort wird es sein.
Nehmen wir an, Sie halten eine Sekunde lang an der Klassifizierung mit zwei Klassen fest und erwarten / hoffen, dass die Genauigkeit des Modells bei etwa 0,80 liegt. Da der Neuabtastungsprozess die Genauigkeitsschätzung abtastet (sagen wir p
), ist der Standardfehler, sqrt[p*(1-p)]/sqrt(B)
wo B
die Anzahl der Neuabtastungen ist. Denn B = 10
der Standardfehler der Genauigkeit liegt bei ca. 0,13 und damit bei B = 100
ca. 0,04. Sie können diese Formel als grobe Richtlinie für diesen speziellen Fall verwenden.
Bedenken Sie auch, dass in diesem Beispiel die Varianz der Genauigkeit umso größer ist, je näher Sie an 0,50 heranrücken. Ein genaues Modell sollte daher weniger Replikationen erfordern, da der Standardfehler niedriger sein sollte als Modelle, die schwache Lernende sind.
HTH,
Max