Meine Hauptfrage betrifft den Versuch zu verstehen, wie die k-fache Kreuzvalidierung in den Kontext von Trainings- / Validierungs- / Testsätzen passt (wenn sie überhaupt in einen solchen Kontext passt).
Normalerweise wird davon gesprochen, die Daten in einen Trainings-, Validierungs- und Testsatz aufzuteilen - beispielsweise in einem Verhältnis von 60/20/20 pro Andrew Ng-Kurs - wobei der Validierungssatz verwendet wird, um optimale Parameter für das Modelltraining zu ermitteln.
Wenn man jedoch die k-fache Kreuzvalidierung verwenden möchte, um ein repräsentativeres Genauigkeitsmaß zu erhalten, wenn die Datenmenge relativ gering ist, was bedeutet die k-fache Kreuzvalidierung genau in dieser 60/20/20-Aufteilung? Szenario?
Würde das zum Beispiel bedeuten, dass wir die Trainings- und Testsätze (80% der Daten) tatsächlich kombinieren und eine k-fache Kreuzvalidierung durchführen würden, um unser Genauigkeitsmaß zu erhalten (effektiv mit einem expliziten „Testsatz“ zu verwerfen? Wenn ja, welches trainierte Modell verwenden wir a) in der Produktion und b) um es gegen den Validierungssatz zu verwenden und optimale Trainingsparameter zu identifizieren? Eine mögliche Antwort für a und b ist beispielsweise die Verwendung des Best-Fold-Modells.
Die Aufteilung in Training / Validierung / Test ist ebenfalls eine Stichprobenstrategie.
Sie können das Training / die Validierung durch eine andere Stichprobenstrategie ersetzen. Dann würden Sie durchführenK. -Falten Sie den Lebenslauf auf 80% der Daten und testen Sie die restlichen 20%.
Sie können es auch auf den Testteil anwenden (dies wird als verschachtelte Kreuzvalidierung bezeichnet)K.- 1 Falten werden zum Trainieren / Validieren verwendet und der Rest zum Testen. Anschließend iterieren Sie diese über Falten.
quelle