Ich stieß auf eine einfache Frage zum Vergleich flexibler Modelle (dh Splines) mit unflexiblen Modellen (z. B. lineare Regression) unter verschiedenen Szenarien. Die Frage ist:
Erwarten wir im Allgemeinen, dass die Leistung einer flexiblen statistischen Lernmethode besser oder schlechter abschneidet als eine unflexible Methode, wenn:
- Die Anzahl der Prädiktoren ist extrem groß und die Anzahl der Beobachtungen ist klein?
- Die Varianz der Fehlerterme, dh , ist extrem hoch?
Ich denke für (1), wenn klein ist, sind unflexible Modelle besser (nicht sicher). Für (2) weiß ich nicht, welches Modell (relativ) besser ist.
machine-learning
model
ein kleiner Junge
quelle
quelle
Antworten:
In diesen beiden Situationen hängt die flexible und unflexible Vergleichsleistung auch von folgenden Faktoren ab:
Wenn die Beziehung nahezu linear ist und Sie die Flexibilität nicht einschränken, sollte das lineare Modell in beiden Fällen einen besseren Testfehler ergeben, da das flexible Modell in beiden Fällen wahrscheinlich überpasst.
Sie können es so betrachten:
Wenn jedoch die wahre Beziehung sehr nicht linear ist, ist es schwer zu sagen, wer gewinnen wird (beide verlieren :)).
Wenn Sie den Grad der Flexibilität einstellen / einschränken und dies richtig machen (z. B. durch Kreuzvalidierung), sollte das flexible Modell in allen Fällen gewinnen.
quelle
Natürlich hängt es von den zugrunde liegenden Daten ab, die Sie immer untersuchen sollten, um einige ihrer Merkmale herauszufinden, bevor Sie versuchen, ein Modell anzupassen, aber was ich als allgemeine Faustregeln gelernt habe, sind:
quelle
Nun, für den zweiten Teil denke ich, dass ein flexibleres Modell versuchen wird, das Modell hart anzupassen, und die Trainingsdaten ein hohes Rauschen enthalten. Daher wird das flexible Modell auch versuchen, dieses Rauschen zu lernen und zu mehr Testfehlern führen. Ich kenne die Quelle dieser Frage, da ich auch das gleiche Buch lese :)
quelle
Für den ersten Teil würde ich erwarten, dass das unflexible Modell mit einer begrenzten Anzahl von Beobachtungen eine bessere Leistung erbringt. Wenn n sehr klein ist, würden beide Modelle (ob flexibel oder unflexibel) keine ausreichend gute Vorhersage liefern. Das flexible Modell würde jedoch tendenziell zu einer Überanpassung der Daten führen und bei einem neuen Testset eine schlechtere Leistung erbringen.
Im Idealfall würde ich mehr Beobachtungen sammeln, um die Anpassung zu verbessern. Wenn dies jedoch nicht der Fall ist, würde ich das unflexible Modell verwenden und versuchen, einen Testfehler mit einem neuen Testset zu minimieren.
quelle
Bei der zweiten Frage glaube ich, dass die Antwort lautet, dass beide gleich gut abschneiden (vorausgesetzt, diese Fehler sind nicht reduzierbar, dh dieser Fehler). Weitere Informationen finden Sie in Eine Einführung in das statistische Lernen auf Seite 18 (Thema: Warum schätzen ), wo der Autor das Sprichwort erklärtf
quelle
Geben Sie für jeden der Teile (a) bis (d) an, ob i. oder ii. ist richtig und erklären Sie Ihre Antwort. Erwarten wir im Allgemeinen, dass die Leistung einer flexiblen statistischen Lernmethode besser oder schlechter abschneidet als eine unflexible Methode, wenn:
Die Stichprobengröße n ist extrem groß und die Anzahl der Prädiktoren p ist klein?
Die Anzahl der Prädiktoren p ist extrem groß und die Anzahl der Beobachtungen n ist klein?
Die Beziehung zwischen den Prädiktoren und der Antwort ist stark nichtlinear?
Die Varianz der Fehlerterme, dh σ2 = Var (ε), ist extrem hoch?
Von hier genommen .
quelle