Wir können das Experiment als
wobei bezeichnen wahre Werte, sind Messfehler, sind ihre "festen" Komponenten unabhängig von der Beobachtung (die sich aus einer falschen Kalibrierung der Sensoren ergeben könnten) und variieren von Beobachtung zu Beobachtung und entsprechen vielen möglichen Faktoren, die wir als zufällig behandeln.y i = y ∗ i + ˜ v i ˜ u i = ˉ u + v i ˜ v i = ˉ v + u i x ∗ i , y ∗ i ˜ u i , ˜ v i ˉ u , ˉ v u , v
xich= x∗ich+ u~ich
yich= y∗ich+ v~ich
u~ich= u¯+ vich
v~ich= v¯+ uich
x∗ich, y∗ichu~ich, v~ichu¯, v¯u , v
Einfache lineare Regression ist
und die OLS-Schätzung der Steigung ist
Was wir jedoch erhalten, istβ = C o v ( x * , y * )
y∗ich= α + βx∗ich+ eich
˜ β =Cov(x,y)β^= C.o v ( x∗, y∗)V.a r ( x∗)
β~= C.o v ( x , y)V.a r ( x )= C.o v ( x∗+ u , y∗+ v )V.a r ( x∗+ u )= C.o v ( x∗, y∗) + C.o v ( x∗, v ) + C.o v ( y∗, u ) + C.o v ( u , v )V.a r ( x∗) + V.a r ( u ) + 2 C.o v ( x , u )
Nehmen wir nun an, dass nicht mit und einander korreliert sind (eine ziemlich starke Annahme, die verbessert werden kann, wenn wir mehr Rückschlüsse auf die Art der Fehler haben). Dann ist unsere Schätzung
Wir können als Stichprobenvariation von schätzen . Wir müssen auch . Wenn wir ein Experiment haben, bei dem wir mehrmals beobachten können, besteht ein einfacher Ansatz darin, ] zu schätzen .v , ux∗, y∗σ2xxiσ2ux*i& sgr;2u=E[σ2x| x∗i
β~= βσ2x∗σ2x∗+ σ2u≈ βσ^2x- σ^2uσ^2x= βλ^
σ^2xxichσ2ux∗ichσ2u= E.[ σ2x| x∗ich
Jetzt können wir unser verwenden, das beispielsweise mit der Bootstrap-Methode berechnet wurde, und es für korrigieren, so dass . β = ~ β / & lgr; σ 2 β = σ 2 ~ βσ^2β~β^= β~/ λ^
σ^2β^= σ^2β~λ^2