Als «bagging» getaggte Fragen

Bagging oder Bootstrap-Aggregation ist ein Sonderfall der Modellmittelung. Bei einem Standard-Trainingssatz generiert das Absacken neue Trainingssätze durch Bootstrapping, und dann werden die Ergebnisse der Verwendung einer Trainingsmethode für die generierten Datensätze gemittelt. Das Absacken kann die Ergebnisse einiger instabiler Methoden wie Bäume stabilisieren. m m m m

15
Welche Mehrfachvergleichsmethode kann für ein älteres Modell verwendet werden: lsmeans oder glht?

Ich analysiere einen Datensatz unter Verwendung eines gemischten Effektmodells mit einem festen Effekt (Bedingung) und zwei zufälligen Effekten (Teilnehmer aufgrund des innerhalb des Motivs und des Paares). Das Modell wurde mit dem erzeugten lme4Paket:

13
Warum nicht immer Ensemble-Lernen verwenden?

Es scheint mir, dass das Lernen von Ensembles immer eine bessere Prognoseleistung liefert als mit nur einer einzelnen Lernhypothese. Also, warum benutzen wir sie nicht die ganze Zeit? Meine Vermutung liegt vielleicht an Recheneinschränkungen? (Selbst dann verwenden wir schwache Prädiktoren, also...

9
Verwirrung in Bezug auf die Absacktechnik

Ich bin ein bisschen verwirrt. Ich habe dieses Papier gelesen, in dem erklärt wurde, dass die Absacktechnik die Varianz stark verringert und die Vorspannung nur geringfügig erhöht. Ich habe es nicht verstanden, warum es die Varianz reduziert. Ich weiß, was Varianz und Voreingenommenheit sind. Bias...