Ich stimme @ziggystar zu. Wie die Anzahl der Bootstrap-Beispielekgegen Unendlich konvergiert, konvergiert die eingesackte Schätzung des linearen Modells gegen die Schätzung des linearen Modells nach OLS (Ordinary Least Squares) für die gesamte Stichprobe. Der Weg, dies zu beweisen, besteht darin, dass Bootstrap vorgibt, die Bevölkerungsverteilung sei dieselbe wie die empirische Verteilung. Wenn Sie immer mehr Datensätze aus dieser empirischen Verteilung abtasten, konvergiert der Durchschnitt der geschätzten Hyperebenen durch asymptotische Eigenschaften der gewöhnlichen kleinsten Quadrate zur "wahren Hyperebene" (OLS-Schätzung für die gesamten Daten).
Auch das Absacken ist nicht immer gut. Es bekämpft nicht nur nicht die Voreingenommenheit, sondern kann in einigen besonderen Fällen die Voreingenommenheit erhöhen . Beispiel:
X1, X2, . . . , Xn∼ B e ( p )
(Bernoulli - Versuche, die mit Wahrscheinlichkeit den Wert 1 annehmen
p und Wert 0 mit Wahrscheinlichkeit
1 - p). Lassen Sie uns weiter Parameter definieren
θ = 1{ p > 0 }
und versuchen es zu schätzen. Natürlich genügt es, einen einzelnen Datenpunkt zu sehen
Xich= 1 das zu wissen
θ = 1. Die gesamte Stichprobe kann einen solchen Datenpunkt enthalten und eine Schätzung ermöglichen
θohne fehler. Andererseits enthält ein Bootstrap-Beispiel möglicherweise keinen solchen Datenpunkt und führt zu einer falschen Schätzung
θmit 0 (wir nehmen hier kein Bayes'sches Gerüst an, jagt gute alte Methode der maximalen Wahrscheinlichkeit). Mit anderen Worten,
B i a s b a g g i n g= P r O b ( i n a b o o t s t r ein p s a m p l e X ( 1 )= . . . = X( n )= 0 ) >0,
bedingt weiter
θ = 1.
a_0 + a_1 * x_1 + ... + a_d * x_d
die resultierende gemittelte lineare Funktion beim Bootstrap-Aggregieren von linearen Funktionen des Formulars (nach dem Bootstrap-Aggregieren) immer noch dieselbe lineare Funktionsform wie diejenige, mit der Sie beginnen (dh der „Grundschüler“).