Ich lese Deep Learning von Ian Goodfellow et al. Es führt Bias als
Konsistenz, auf der anderen Seite, ist definiert durch
was bedeutet , dass für jede , als
Dann heißt es, dass Konsistenz Unvoreingenommenheit impliziert, aber nicht umgekehrt:
Die Konsistenz stellt sicher, dass die vom Schätzer induzierte Verzerrung mit zunehmender Anzahl von Datenbeispielen abnimmt. Das Gegenteil ist jedoch nicht der Fall - asymptotische Unparteilichkeit bedeutet keine Konsistenz. Betrachten Sie beispielsweise die Schätzung des mittleren Parameters μ einer Normalverteilung N (x; μ, σ2) mit einem Datensatz, der aus m Stichproben besteht: . Wir könnten die erste Stichprobe des Datensatzes als unverzerrten Schätzer verwenden: \ hatθ = x ^ {(1)} . In diesem Fall ist E (\ hat θ_m) = θ, so dass der Schätzer unabhängig von der Anzahl der gesehenen Datenpunkte unverzerrt ist. Dies impliziert natürlich, dass die Schätzung asymptotisch unvoreingenommen ist. Dies ist jedoch kein konsistenter Schätzer, da es nicht der Fall ist, dass \ hatθ_m → θ asθ = x ( 1 )θ m → θ m → ∞
Ich bin mir nicht sicher, ob ich den obigen Absatz und die Konzepte von Unparteilichkeit und Konsistenz richtig verstanden habe. Ich hoffe, jemand könnte mir helfen, ihn zu überprüfen. Danke im Voraus.
Soweit ich weiß, impliziert Konsistenz sowohl Unparteilichkeit als auch geringe Varianz, und daher reicht Unparteilichkeit allein nicht aus, um Konsistenz zu implizieren.