Die Seite von Scikit Learn zur Modellauswahl erwähnt die Verwendung von verschachtelter Kreuzvalidierung:
>>> clf = GridSearchCV(estimator=svc, param_grid=dict(gamma=gammas), ... n_jobs=-1) >>> cross_validation.cross_val_score(clf, X_digits, y_digits)
Zwei Kreuzvalidierungsschleifen werden parallel ausgeführt: eine vom GridSearchCV-Schätzer zum Festlegen von Gamma und eine vom cross_val_score zum Messen der Vorhersageleistung des Schätzers. Die resultierenden Scores sind unvoreingenommene Schätzungen des Vorhersage-Scores für neue Daten.
Soweit ich weiß, clf.fit
wird die Kreuzvalidierung nativ verwendet, um das beste Gamma zu bestimmen. Warum sollten wir in diesem Fall verschachtelten Lebenslauf wie oben angegeben verwenden? In der Anmerkung wird erwähnt, dass verschachtelter Lebenslauf "unvoreingenommene Schätzungen" des Vorhersagewertes liefert. Ist das nicht auch so clf.fit
?
Außerdem war ich nicht in der Lage, die besten Schätzungen für den CLF aus dem cross_validation.cross_val_score(clf, X_digits, y_digits)
Verfahren zu erhalten. Könnten Sie uns bitte mitteilen, wie das gemacht werden kann?