Ich habe diese Aussage oft gelesen, bin aber nie auf einen Beweis gestoßen. Ich würde gerne versuchen, selbst eine zu produzieren, bin mir aber nicht einmal sicher, welche Notation ich verwenden soll. Kann mir jemand dabei helfen?
8
Antworten:
Ich weiß nicht, ob dies die endgültige Antwort ist, aber diese Dinge passen nicht zu einem Kommentar.
Die Aussage, dass OOB-Fehler unvoreingenommen sind, wird oft verwendet, aber ich habe nie eine Demonstration gesehen. Nach vielen Suchen gab ich schließlich nach sorgfältiger Lektüre die bekannte Seite von Breiman für RF Section: Die Out-of-Bag (oob) -Fehlerschätzung . Falls Sie es nicht bemerkt haben (wie ich es einige Zeit verpasst habe), ist der letzte Satz der wichtige: Dies hat sich in vielen Tests als unvoreingenommen erwiesen . Also keine Anzeichen einer formalen Ableitung.
Darüber hinaus scheint es bewiesen zu sein, dass dieser Schätzer für den Fall, dass Sie mehr Variablen als Instanzen haben, voreingenommen ist. Siehe hier .
Für In-the-Bag-Fehler gibt es eine formale Ableitung. Der In-the-Bag-Fehler ist der Bootstrap-Fehler, und es gibt reichlich Literatur, beginnend mit "Eine Einführung in die Bootsrap von Efron und Tibshirani". Die sauberste Demonstration, die ich gesehen habe, ist hier .
Wenn Sie anfangen möchten, einen Beweis zu finden, ist der Vergleich dieser Schätzung mit der N-fachen Kreuzvalidierung meiner Meinung nach ein guter Ausgangspunkt. In ESTL wird angegeben, dass es eine Identität im Grenzwert gibt, da die Anzahl der Proben gegen unendlich geht.
quelle
Warum erwarten Sie, dass der oob-Fehler unvoreingenommen ist?
Für die im Ersatzwald verwendeten Bäume steht (mindestens) 1 Trainingsfall weniger zur Verfügung als für den "ursprünglichen" Wald. Ich würde erwarten, dass dies zu einer kleinen pessimistischen Tendenz führt, die in etwa mit einer einmaligen Kreuzvalidierung vergleichbar ist.
Beide Gedanken hängen eng mit der Lernkurve des Klassifikators und der betreffenden Anwendung / Daten zusammen: der erste mit der durchschnittlichen Leistung als Funktion der Trainingsstichprobengröße und der zweite mit der Varianz um diese durchschnittliche Kurve.
Beachten Sie auch, dass Breiman "unvoreingenommen" für Out-of-Bootstrap verwendet, genauso wie er es für die Kreuzvalidierung verwendet, bei der wir auch eine (kleine) pessimistische Tendenz haben. Ich komme aus einem experimentellen Bereich und kann damit sagen, dass beide praktisch unvoreingenommen sind, da die Verzerrung normalerweise viel weniger problematisch ist als die Varianz (Sie verwenden wahrscheinlich keine zufälligen Wälder, wenn Sie den Luxus haben, viele Fälle zu haben). .
quelle