Diese Frage bezieht sich auf Galit Shmuelis Aufsatz "To Explain or to Predict" .
Im Einzelnen schreibt Professor Shmueli in Abschnitt 1.5, "Erklärung und Vorhersage sind unterschiedlich":
Bei der erklärenden Modellierung liegt der Schwerpunkt auf der Minimierung der Verzerrung, um die genaueste Darstellung der zugrunde liegenden Theorie zu erhalten.
Das hat mich jedes Mal verwirrt, wenn ich die Zeitung gelesen habe. Inwiefern liefert die Minimierung der Verzerrung in Schätzungen die genaueste Darstellung der zugrunde liegenden Theorie?
Ich habe auch Professor Shmuelis Vortrag hier gesehen , der auf dem JMP Discovery Summit 2017 gehalten wurde.
... Dinge, die wie Schrumpfmodelle sind, Ensembles, die werden Sie nie sehen. Da diese Modelle konstruktionsbedingt eine Verzerrung einführen, um die Gesamtverzerrung / -varianz zu verringern. Deshalb werden sie nicht da sein, das ergibt theoretisch keinen Sinn. Warum sollten Sie Ihr Modell absichtlich voreingenommen machen?
Dies wirft kein wirkliches Licht auf meine Frage und bringt lediglich die Behauptung zum Ausdruck, die ich nicht verstehe.
Wenn die Theorie viele Parameter hat und wir nur wenige Daten haben, um sie zu schätzen, wird der Schätzfehler von der Varianz dominiert. Warum wäre es in dieser Situation ungeeignet, ein voreingenommenes Schätzverfahren wie die Gratregression zu verwenden (was zu voreingenommenen Schätzungen einer geringeren Varianz führt)?