Der (frequentistische) Bootstrap nimmt die Daten als vernünftige Annäherung an die unbekannte Populationsverteilung. Daher kann die Stichprobenverteilung einer Statistik (eine Funktion der Daten) angenähert werden, indem die Beobachtungen wiederholt neu abgetastet werden, wobei die Statistik für jede Stichprobe ersetzt und berechnet wird.
Sei die ursprünglichen Daten. (Im gegebenen Beispiel ist n = 5. ) Sei y b = ( y b 1 , ... , y b n ) ein Bootstrap-Beispiel. Bei einer solchen Stichprobe werden wahrscheinlich einige Beobachtungen ein- oder mehrmals wiederholt, und andere Beobachtungen fehlen. Der Mittelwert der Bootstrap-Stichprobe ergibt sich aus m b = 1y=(y1,…,yn)n=5yb=(yb1,…,ybn)Es ist die Verteilung vonmbüber eine Anzahl von Bootstrap-Replikationen, die verwendet wird, um die Stichprobenverteilung aus der unbekannten Population anzunähern.
mb=1n∑i=1nybi.
mb
Um die Verbindung zwischen dem frequentistischen Bootstrap und dem bayesianischen Bootstrap zu verstehen, ist es lehrreich, zu sehen, wie man aus einer anderen Perspektive berechnet .mb
In jedem Bootstrap-Sample tritt jede Beobachtung y i irgendwo zwischen 0 und n- mal auf. Sei h b i die Häufigkeit, mit der y i in y b vorkommt , und sei h b = ( h b 1 , ... , h b n ) . Also h b i ∈ { 0 , 1 , … , n - 1 , n }ybyinhbiyiybhb=(hb1,…,hbn)hbi∈{0,1,…,n−1,n}und . Wenn h b gegeben ist , können wir eine Sammlung von nichtnegativen Gewichten konstruieren , die sich zu eins summieren: w b = h b / n , wobei w b i = h b i / n . Mit dieser Notation können wir den Mittelwert des Bootstrap-Samples als
m b = n ∑ i = 1 w b i wiedergeben∑ni=1hbi=nhbwb=hb/nwbi=hbi/n
mb=∑i=1nwbiyi.
Die Art und Weise, wie die Beobachtungen für eine Bootstrap-Stichprobe ausgewählt werden, bestimmt die gemeinsame Verteilung für . Insbesondere hat h b eine multinomiale Verteilung und somit ( nwbhbDaher können wir m b berechnen,indemwir w b aus seiner Verteilung ziehen und das Skalarprodukt mit y berechnen. Aus dieser neuen Perspektive scheint es, dass die Beobachtungenfest sind,während die Gewichte variieren.
(nwb)∼Multinomial(n,(1/n)ni=1).
mbwby
In der Bayes'schen Folgerung werden die Beobachtungen in der Tat als fest genommen, so dass diese neue Perspektive dem Bayes'schen Ansatz entspricht. Tatsächlich unterscheidet sich die Berechnung des Mittelwerts nach dem Bayes'schen Bootstrap nur in der Verteilung der Gewichte. (Aus konzeptioneller Sicht unterscheidet sich der Bayes'sche Bootstrap jedoch erheblich von der frequentistischen Version.) Die Daten sind fest und die Gewichte w sind die unbekannten Parameter. Wir sind möglicherweise an einigen Funktionen der Daten interessiert , die von den unbekannten Parametern abhängen:
μ = n ∑ i = 1 w iyw
μ=∑i=1nwiyi.
Hier ist eine Skizze des Modells hinter dem Bayes'schen Bootstrap: Die Stichprobenverteilung für die Beobachtungen ist multinomial und die Prioritätsverteilung für die Gewichte ist eine begrenzende Dirichlet-Verteilung, die das gesamte Gewicht auf die Eckpunkte des Simplex legt. (Einige Autoren bezeichnen dieses Modell als multinomiales Wahrscheinlichkeitsmodell .)
w∼Dirichlet(1,…,1).
μwy
∑i=1nwig(yi,θ)=0–,
g(yi,θ)θ0–θywwempirische Wahrscheinlichkeit und mit verallgemeinerter Methode der Momente (GMM).)
∑i=1nwi(yi−μ)=0.
θ=(μ,v)g(yi,θ)=(yi−μ(yi−μ)2−v).