Warum den parametrischen Bootstrap verwenden?


13

Ich versuche gerade, ein paar Dinge in Bezug auf parametrisches Bootstrap in den Kopf zu bekommen. Die meisten Dinge sind wahrscheinlich trivial, aber ich glaube immer noch, dass ich etwas verpasst habe.

Angenommen, ich möchte Konfidenzintervalle für Daten mithilfe einer parametrischen Bootstrap-Prozedur abrufen.

Ich habe also dieses Beispiel und gehe davon aus, dass es normal verteilt ist. Ich würde dann Varianzschätzung v und mittlere und meine Verteilungsschätzung erhalten , die offensichtlich nur .v^ P N( m , v )m^P^N(m^,v^)

Anstatt aus dieser Verteilung eine Stichprobe zu ziehen, könnte ich die Quantile einfach analytisch berechnen und durchführen.

a) Ich schließe daraus: In diesem trivialen Fall wäre das parametrische Bootstrap dasselbe wie das Berechnen von Dingen in einer Normalverteilungsannahme?

Theoretisch wäre dies für alle parametrischen Bootstrap-Modelle der Fall, solange ich mit den Berechnungen fertig bin.

b) Ich komme zu dem Schluss, dass die Annahme einer bestimmten Verteilung mir mehr Genauigkeit beim parametrischen Bootstrap bringt als beim nichtparametrischen (wenn es natürlich korrekt ist). Aber abgesehen davon mache ich es einfach, weil ich die analytischen Berechnungen nicht verarbeiten kann und versuche, meinen Ausweg zu simulieren?

c) Ich würde es auch verwenden, wenn die Berechnungen "normalerweise" mit einer Annäherung durchgeführt würden, weil dies mir vielleicht mehr Genauigkeit geben würde ...?

Der Vorteil des (nichtparametrischen) Bootstraps schien für mich darin zu liegen, dass ich keine Distribution übernehmen muss. Für den parametrischen Bootstrap ist dieser Vorteil weg - oder gibt es Dinge, die ich verpasst habe und bei denen der parametrische Bootstrap einen Vorteil gegenüber den oben genannten Dingen bietet?


1
Sie haben im Grunde genommen recht - Sie tauschen einen Analysefehler gegen einen Monte Carlo-Fehler. Der parametrische Bootstrap ist auch eine ungefähre hintere Probe.
Wahrscheinlichkeitsrechnung

1
du meinst eine ungefähre hintere probe wie in bayes? Ich verstehe immer noch nicht ganz den Zusammenhang zwischen Bootstrapping und Maximum Likelihood Estimation. aber das ist eine andere Geschichte. Vielen Dank für Ihre Antwort!
BootstrapBill

Antworten:


8

Ja. Du hast recht. Parametric Bootstrap schirmt jedoch bessere Ergebnisse ab, wenn die Annahmen gelten. Denk darüber so:

Wir haben eine Stichprobe aus einer Verteilung F . Wir schätzen , um einen Parameter von Interesse θ in Abhängigkeit von der Probe, θ = h ( X 1 , ... , X n ) . Diese Schätzung ist eine Zufallsvariable und hat daher eine Verteilung, die wir G nennen . Diese Verteilung wird vollständig durch h und F bestimmt, was G = G ( h , F ) bedeutet.X1,,XnFθθ^=h(X1,,Xn)GhFG=G(h,F). Wenn jede Art von Bootstrap tun (parametrisch, nicht-parametrische, Resampling) , was wir tun , ist zu schätzen mit F , um eine Schätzung zu erhalten G , G = G ( h , F ) . Von G schätzen wir die Eigenschaften von θ . Was Fom differents Arten von Bootstrap ändert , ist , wie wir bekommen F .FF^GG^=G(h,F^)G^θ^F^

G^=G(h,F^)G^X1b,,XnbF^θ^b=h(X1b,,Xnb)G^

F^FG^Gθ^


1
Also, wenn wir es als Konvergenz höherer Ordnung ausdrücken, sehen wir, dass, obwohl parametrische und nichtparametrische Bootstraps in derselben Konvergenzordnung sind (ich denke, das ist, was in van der Vaarts asymptotischer Statistik geschrieben wurde), parametrisch immer noch besser ist. aber nur in Bezug auf einen Faktor?
BootstrapBill
Durch die Nutzung unserer Website bestätigen Sie, dass Sie unsere Cookie-Richtlinie und Datenschutzrichtlinie gelesen und verstanden haben.
Licensed under cc by-sa 3.0 with attribution required.