Diese Frage wurde vor langer Zeit gestellt, aber ich poste eine Antwort, falls jemand sie in Zukunft entdeckt. Kurz gesagt, die Antwort lautet Ja: Sie können dies in vielen Einstellungen tun, und Sie können die Änderung der Stichprobengröße zu Recht um √ korrigierenMN−−√ . Dieser Ansatz wird normalerweise alsMaus-NBoostrap bezeichnet und funktioniert in den meisten Einstellungen, die der "traditionelle" Bootstrap ausführt, sowie in einigen Einstellungen, in denen dies nicht der Fall ist.
Der Grund dafür ist, dass viele Bootstrap-Konsistenzargumente Schätzer der Form 1N√(TN−μ), wobeiX1,…,XNZufallsvariablen sind undμein Parameter der zugrunde liegenden Verteilung ist. Zum Beispiel ist für den StichprobenmittelwertTN=1N∑Ni=1Xiundμ=E(X1).
Viel Bootstrap Konsistenz Proofs argumentieren , dass, wie N→∞ , da eine endliche Probe {x1,…,xN} und Punktschätzung assoziiert μ N = T N ( x 1 , ... , x N ) ,
√μ^N=TN(x1,…,xN)N−−√(TN(X∗1,…,X∗N)−μ^N)→DN−−√(TN(X1,…,XN)−μ)(1)
wobei dasXiaus der wahren zugrunde liegenden Verteilung und dasX∗idurch Ersetzen aus{x1,…,xN}.
Wir könnten jedoch auch kürzere Stichproben der Länge M<N und den Schätzer √ berücksichtigen
M−−√(TM(X∗1,…,X∗M)−μ^N).(2)
Es stellt sich heraus, dassder Schätzer (2)alsM,N→∞die gleiche Grenzverteilung wie oben in den meisten Einstellungen hat, in denen (1) gilt, und in einigen, in denen dies nicht der Fall ist. In diesem Fall haben (1) und (2) die gleiche Grenzverteilung, was den Korrekturfaktor√motiviert2112MN−−√ in zB der Standardabweichung der Stichprobe.
Diese Argumente sind alle asymptotisch und gelten nur für die Grenze M,N→∞ . Damit dies funktioniert, ist es wichtig, M zu klein auszuwählen . Es gibt einige Theorien (z. B. Bickel & Sakov unten), wie das optimale M als Funktion von N , um die besten theoretischen Ergebnisse zu erzielen. In Ihrem Fall können jedoch Rechenressourcen der entscheidende Faktor sein.
Für einige Intuition: In vielen Fällen haben wir μ N D → μ als N → ∞ , so dass
√μ^N→DμN→∞N−−√(TN(X1,…,XN)−μ),(3)
kann ein bisschen wie ein gedacht werdenmausnmit Bootstrapm=Nundn=∞(Ich bin mit Kleinbuchstaben zu vermeiden Notation Verwirrung) . Auf diese Weise ist das Emulieren der Verteilung von () unter Verwendung einesMausNBootstraps mitM<Neine "richtigere" Sache als die herkömmliche (NausN)3MNM<NNN) nett. Ein zusätzlicher Bonus in Ihrem Fall ist, dass die Bewertung weniger rechenintensiv ist.
Wie Sie bereits erwähnt haben, sind Politis und Romano das Hauptpapier. Ich finde Bickel et al. (1997) unten auch einen schönen Überblick über das M aus N Bootstrap.
Quellen :
PJ Bickel, F. Goetze, WR van Zwet. 1997. Resampling von weniger als n Beobachtungen: Gewinne, Verluste und Abhilfemaßnahmen für Verluste. Statistica Sinica.
PJ Bickel, ein Sakov. 2008. Über die Wahl von m im m ouf von n Bootstrap und Vertrauensgrenzen für Extrema. Statistica Sinica.