Ich denke, Sie können bedingte Testfehler falsch verstehen. Dies kann daran liegen, dass Hastie, Friedman und Tibshirani (HFT) in ihrer Terminologie nicht konsistent sind und manchmal denselben Begriff "Testfehler", "Generalisierungsfehler", "Vorhersagefehler bei einem unabhängigen Testsatz", "wahrer bedingter Fehler" nennen. oder "tatsächlicher Testfehler".
Unabhängig vom Namen ist es der durchschnittliche Fehler, den das Modell, das Sie an einen bestimmten Trainingssatz angepasst haben, auftreten würde, wenn es auf Beispiele angewendet wird, die aus der Verteilung von (X, Y) -Paaren gezogen wurden. Wenn Sie jedes Mal Geld verlieren, wenn das angepasste Modell einen Fehler macht (oder proportional zum Fehler, wenn Sie über Regression sprechen), ist dies der durchschnittliche Geldbetrag, den Sie jedes Mal verlieren, wenn Sie den Klassifikator verwenden. Es ist wohl die natürlichste Sache, sich um ein Modell zu kümmern, das Sie an ein bestimmtes Trainingsset angepasst haben.τ
Sobald dies eintritt, ist die eigentliche Frage, warum man sich um den erwarteten Testfehler kümmern sollte! (HFT nennt dies auch "erwarteter Vorhersagefehler".) Schließlich ist es ein Durchschnitt über alle Arten von Trainingssätzen, die Sie normalerweise nie verwenden werden. (Es scheint übrigens, dass HFT bei der Definition des erwarteten Testfehlers einen Durchschnitt über Trainingssätze einer bestimmten Größe beabsichtigt, aber sie sagen dies nie explizit.)
Der Grund dafür ist, dass der erwartete Testfehler ein grundlegenderes Merkmal eines Lernalgorithmus ist, da er über die Unwägbarkeiten mittelt, ob Sie mit Ihrem speziellen Trainingssatz Glück hatten oder nicht.
Wie Sie bereits erwähnt haben, zeigt HFT, dass der CV den erwarteten Testfehler besser schätzt als den bedingten Testfehler. Dies ist ein Glücksfall, wenn Sie Algorithmen für maschinelles Lernen vergleichen, aber ein Glücksfall, wenn Sie wissen möchten, wie gut das bestimmte Modell, das Sie zu einem bestimmten Trainingssatz passen, funktioniert.