Ich denke, man kann mit Sicherheit sagen, dass es keine Situation gibt, in der man einen unvoreingenommenen Schätzer braucht . zum Beispiel, wennμ = 1 und wir haben E.[μ^] = μ + ϵEs muss eine geben ϵ klein genug, dass es dich unmöglich interessieren kann.
Vor diesem Hintergrund denke ich, dass es wichtig ist, unvoreingenommene Schätzer eher als Grenze für etwas Gutes zu sehen. Wenn alles andere gleich bleibt , ist weniger Voreingenommenheit besser. Und es gibt viele konsistente Schätzer, bei denen die Verzerrung in moderaten Stichproben so hoch ist, dass der Schätzer stark beeinflusst wird. Beispielsweise ist in den meisten Maximum-Likelihood-Schätzern die Schätzung von Varianzkomponenten häufig nach unten vorgespannt. In Fällen von Vorhersageintervallen kann dies beispielsweise angesichts einer Überanpassung ein wirklich großes Problem sein.
Kurz gesagt, es würde mir sehr schwer fallen, eine Situation zu finden, in der wirklich unvoreingenommene Schätzungen erforderlich sind. Es ist jedoch recht einfach, Probleme zu finden, bei denen die Verzerrung eines Schätzers das entscheidende Problem ist. Es ist wahrscheinlich nie unbedingt erforderlich, dass ein Schätzer unvoreingenommen ist. Wenn ein Schätzer jedoch unvoreingenommen ist, bedeutet dies, dass ein potenziell schwerwiegendes Problem behoben wird.
BEARBEITEN:
Nachdem ich ein wenig darüber nachgedacht hatte, kam mir der Gedanke, dass ein Fehler außerhalb der Stichprobe die perfekte Antwort auf Ihre Anfrage ist. Die "klassische" Methode zum Schätzen von Fehlern außerhalb der Stichprobe ist der Maximum-Likelihood-Schätzer, der sich bei normalen Daten auf den Fehler innerhalb der Stichprobe reduziert. Während dieser Schätzer mit Modellen mit großen Freiheitsgraden konsistent ist, ist die Verzerrung so schlecht, dass er entartete Modelle empfiehlt (dh 0 Fehler außerhalb der Stichprobe bei Modellen schätzen, die stark überanpassen). Die Kreuzvalidierung ist eine clevere Methode, um eine unvoreingenommene Schätzung des Fehlers außerhalb der Stichprobe zu erhalten. Wenn Sie die Kreuzvalidierung zur Modellauswahl verwenden, verzerren Sie Ihre Fehlerschätzung außerhalb der Stichprobe erneut nach unten. Aus diesem Grund verfügen Sie über einen Validierungsdatensatz, um eine unvoreingenommene Schätzung des endgültig ausgewählten Modells zu erhalten.
Natürlich bleibt mein Kommentar zu wirklich unvoreingenommen: Wenn ich einen Schätzer hätte, hätte ich den Wert des Fehlers außerhalb der Stichprobe + erwartet ϵIch würde es gerne stattdessen für klein genug verwenden ϵ. Die Methode der Kreuzvalidierung ist jedoch motiviert, indem versucht wird, einen unvoreingenommenen Schätzer für den Fehler außerhalb der Stichprobe zu erhalten. Und ohne Kreuzvalidierung würde das Gebiet des maschinellen Lernens völlig anders aussehen als jetzt.