In 'Die Elemente des statistischen Lernens' wird der Ausdruck für die Bias-Varianz-Zerlegung des linearen Modells gegeben als wobei die eigentliche Zielfunktion ist, die Varianz des Zufallsfehlers im Modell und ist der lineare Schätzer von .f ( x 0 ) σ 2 ε y = f ( x ) + ε
Der Varianzterm beunruhigt mich hier, weil die Gleichung impliziert, dass die Varianz Null wäre, wenn die Ziele geräuschlos sind, dhAber es macht für mich keinen Sinn, weil ich selbst mit Null Rauschen immer noch verschiedene Schätzer für verschiedene Trainingssätze erhalten kann, was impliziert, dass die Varianz ungleich Null ist.
Angenommen, die Zielfunktion ist quadratisch und die Trainingsdaten enthalten zwei Punkte, die zufällig aus diesem Quadrat abgetastet wurden. Es ist klar, dass ich jedes Mal eine andere lineare Anpassung bekomme, wenn ich zwei Punkte zufällig vom quadratischen Ziel abtastet. Wie kann dann die Varianz Null sein?
Kann mir jemand helfen, herauszufinden, was an meinem Verständnis der Bias-Varianz-Zerlegung falsch ist?