Es wird oft behauptet, dass Bootstrapping eine Schätzung der Abweichung in einem Schätzer liefern kann.
Wenn die Schätzung für eine Statistik ist und die Bootstrap-Repliken sind (mit ), dann ist die Bootstrap-Schätzung der Verzerrung was extrem einfach und mächtig erscheint, bis es beunruhigend ist. ~ t ii∈{1,⋯,N}biast≈1
Ich kann nicht verstehen, wie dies möglich ist, ohne dass ich bereits einen unvoreingenommenen Schätzer für die Statistik habe. Wenn mein Schätzer beispielsweise einfach eine von den Beobachtungen unabhängige Konstante zurückgibt, ist die obige Schätzung der Verzerrung eindeutig ungültig.
Obwohl dieses Beispiel pathologisch ist, kann ich die vernünftigen Annahmen über den Schätzer und die Verteilungen, die garantieren, dass die Bootstrap-Schätzung vernünftig ist, nicht sehen.
Ich habe versucht, die formalen Verweise zu lesen, bin aber weder Statistiker noch Mathematiker, daher wurde nichts geklärt.
Kann jemand eine allgemeine Zusammenfassung darüber geben, wann die Schätzung voraussichtlich gültig sein wird? Wenn Sie gute Referenzen zu diesem Thema kennen, wäre das auch großartig.
Bearbeiten:
Die Glätte des Schätzers wird oft als Voraussetzung für das Funktionieren des Bootstraps angegeben. Könnte es sein, dass man auch eine Art lokale Invertierbarkeit der Transformation benötigt? Die konstante Karte befriedigt das eindeutig nicht.