Die Dokumentation besagt, dass R gbm mit Distribution = "adaboost" für das 0-1-Klassifizierungsproblem verwendet werden kann. Betrachten Sie das folgende Codefragment:
gbm_algorithm <- gbm(y ~ ., data = train_dataset, distribution = "adaboost", n.trees = 5000)
gbm_predicted <- predict(gbm_algorithm, test_dataset, n.trees = 5000)
Es kann in der Dokumentation gefunden werden, die.ggm vorhersagt
Gibt einen Vektor von Vorhersagen zurück. Standardmäßig liegen die Vorhersagen auf der Skala von f (x).
Die jeweilige Skala ist jedoch für den Fall der Verteilung = "adaboost" nicht klar.
Könnte jemand bei der Interpretation der Rückgabewerte von pred.gbm helfen und eine Idee für die Konvertierung in die 0-1-Ausgabe liefern?
Antworten:
Die Adaboost-Methode liefert die Vorhersagen auf der Logit-Skala. Sie können es in die 0-1-Ausgabe konvertieren:
Beachten Sie die 2 * im Logis
quelle
Sie können die Wahrscheinlichkeiten auch direkt aus der
predict.gbm
Funktion abrufen.quelle
Die Adaboost-Link-Funktion wird hier beschrieben . Dieses Beispiel enthält eine detaillierte Beschreibung der Berechnung:
quelle