Ich habe festgestellt, dass beim Erstellen zufälliger Waldregressionsmodelle, zumindest in R
, der vorhergesagte Wert niemals den in den Trainingsdaten angezeigten Maximalwert der Zielvariablen überschreitet. Ein Beispiel finden Sie im folgenden Code. Ich erstelle ein Regressionsmodell, um mpg
basierend auf den mtcars
Daten Vorhersagen zu treffen . Ich baue OLS- und zufällige Waldmodelle und verwende sie, um mpg
ein hypothetisches Auto vorherzusagen , das einen sehr guten Kraftstoffverbrauch haben sollte. Das OLS sagt mpg
erwartungsgemäß ein Hoch voraus, ein zufälliger Wald jedoch nicht. Ich habe dies auch bei komplexeren Modellen bemerkt. Warum ist das?
> library(datasets)
> library(randomForest)
>
> data(mtcars)
> max(mtcars$mpg)
[1] 33.9
>
> set.seed(2)
> fit1 <- lm(mpg~., data=mtcars) #OLS fit
> fit2 <- randomForest(mpg~., data=mtcars) #random forest fit
>
> #Hypothetical car that should have very high mpg
> hypCar <- data.frame(cyl=4, disp=50, hp=40, drat=5.5, wt=1, qsec=24, vs=1, am=1, gear=4, carb=1)
>
> predict(fit1, hypCar) #OLS predicts higher mpg than max(mtcars$mpg)
1
37.2441
> predict(fit2, hypCar) #RF does not predict higher mpg than max(mtcars$mpg)
1
30.78899
r
random-forest
Gaurav Bansal
quelle
quelle
Antworten:
Wie bereits in früheren Antworten erwähnt, liefert eine zufällige Gesamtstruktur für Regressions- / Regressionsbäume keine erwarteten Vorhersagen für Datenpunkte, die über den Bereich des Trainingsdatenbereichs hinausgehen, da sie nicht (gut) extrapoliert werden können. Ein Regressionsbaum besteht aus einer Hierarchie von Knoten, wobei jeder Knoten einen Test angibt, der für einen Attributwert ausgeführt werden soll, und jeder Blattknoten (Terminalknoten) eine Regel zur Berechnung einer vorhergesagten Ausgabe angibt. In Ihrem Fall fließt die Testbeobachtung durch die Bäume zu Blattknoten, die beispielsweise "wenn x> 335, dann y = 15" angeben und dann durch zufällige Gesamtstruktur gemittelt werden.
Hier ist ein R-Skript, das die Situation sowohl mit zufälliger Gesamtstruktur als auch mit linearer Regression visualisiert. Im Fall einer zufälligen Gesamtstruktur sind die Vorhersagen zum Testen von Datenpunkten konstant, die entweder unter dem x-Wert der niedrigsten Trainingsdaten oder über dem x-Wert der höchsten Trainingsdaten liegen.
quelle
Es gibt keine Möglichkeit für einen zufälligen Wald, wie bei einem OLS zu extrapolieren. Der Grund ist einfach: Die Vorhersagen aus einem zufälligen Wald werden durch Mittelung der in mehreren Bäumen erzielten Ergebnisse erstellt. Die Bäume selbst geben den Mittelwert der Abtastwerte in jedem Endknoten, den Blättern, aus. Es ist unmöglich, dass das Ergebnis außerhalb des Bereichs der Trainingsdaten liegt, da der Durchschnitt immer innerhalb des Bereichs seiner Bestandteile liegt.
Mit anderen Worten, es ist unmöglich, dass ein Durchschnitt größer (oder niedriger) als jede Stichprobe ist, und die Regressionen der zufälligen Wälder basieren auf der Mittelwertbildung.
quelle
Entscheidungsbäume / Random Forrest können nicht außerhalb der Trainingsdaten extrapoliert werden. Und obwohl OLS dies kann, sollten solche Vorhersagen mit Vorsicht betrachtet werden. da das identifizierte Muster möglicherweise nicht außerhalb des beobachteten Bereichs fortgesetzt wird.
quelle