Nur um etwas zur Antwort von @SubravetiSuraj hinzuzufügen (+1)
Die Kreuzvalidierung liefert eine pessimistisch verzerrte Schätzung der Leistung, da sich die meisten statistischen Modelle verbessern, wenn der Trainingssatz vergrößert wird. Dies bedeutet, dass die k-fache Kreuzvalidierung die Leistung eines Modells schätzt, das auf einem Datensatz von 100 * (k-1) / k% der verfügbaren Daten und nicht auf 100% davon trainiert wurde. Wenn Sie also eine Kreuzvalidierung durchführen, um die Leistung zu schätzen, und dann ein Modell verwenden, das für alle Daten für den operativen Gebrauch geschult wurde, ist die Leistung etwas besser als die Kreuzvalidierungsschätzung vorschlägt.
Die ausschließliche Kreuzvalidierung ist in etwa unbefangen , da der Größenunterschied zwischen dem in jeder Falte verwendeten Trainingssatz und dem gesamten Datensatz nur ein einziges Muster ist. Dazu gibt es einen Artikel von Luntz und Brailovsky (in russischer Sprache).
Luntz, Aleksandr und Viktor Brailovsky. "Über die Schätzung der im statistischen Erkennungsverfahren erhaltenen Zeichen." Technicheskaya Kibernetica 3,6 (1969): 6-12.
siehe auch
Abschätzung der Fehlerraten bei der Diskriminanzanalyse Peter A. Lachenbruch und M. Ray Mickey Technometrics Vol. 3 No. 10, Iss. 1,1968
Obwohl eine ausschließliche Kreuzvalidierung in etwa unvoreingenommen ist, weist sie tendenziell eine hohe Varianz auf (daher würden Sie sehr unterschiedliche Schätzungen erhalten, wenn Sie die Schätzung mit unterschiedlichen anfänglichen Stichproben von Daten aus derselben Verteilung wiederholen würden). Da der Fehler des Schätzers eine Kombination aus Verzerrung und Varianz ist, hängt es von beiden Größen ab, ob eine ausgelassene Kreuzvalidierung besser ist als eine zehnfache Kreuzvalidierung.
Jetzt ist die Varianz beim Anpassen des Modells tendenziell höher, wenn es an einen kleinen Datensatz angepasst wird (da es empfindlicher auf Rausch- / Abtastartefakte in der jeweiligen verwendeten Trainingsstichprobe reagiert). Dies bedeutet, dass eine 10-fache Kreuzvalidierung wahrscheinlich eine hohe Varianz (sowie eine höhere Verzerrung) aufweist, wenn Sie nur über eine begrenzte Datenmenge verfügen, da die Größe des Trainingssatzes geringer ist als bei LOOCV. Daher kann die k-fache Kreuzvalidierung auch Varianzprobleme haben, jedoch aus einem anderen Grund. Aus diesem Grund ist LOOCV oft besser, wenn der Datensatz klein ist.
Der Hauptgrund für die Verwendung von LOOCV ist meiner Meinung nach, dass es für einige Modelle (wie lineare Regression, die meisten Kernel-Methoden, Klassifikatoren für den nächsten Nachbarn usw.) recheneffizient ist und ich es verwenden würde , wenn der Datensatz nicht sehr klein wäre 10-fache Kreuzvalidierung, wenn sie in mein Rechenbudget passt, oder noch besser, Bootstrap-Schätzung und Bagging.