Ich stelle eine weitere Antwort mit mehr Details auf.
Im standardmäßigen linearen Regressionsmodell (in Matrixform):
Y=Xβ+ε
Die OLS-Schätzung lautet wie folgt
β^=(XTX)−1XTY.
Seine Varianz ist dann
Var(β^)=(XTX)−1XTVar(Y)X(XTX)−1.
Die übliche Annahme für eine Regression ist die folgende
Var(Y)=σ2I,
wo die Identitätsmatrix . DannI
Var(β^)=σ2(XTX)−1.
In Ihrem Fall haben Sie jetzt zwei Modelle:
Yi=Miδi+ϵi
und
Γ=Lc+u,
wo
- YTi=(Yi1,...,YiT) ,
- X T i = ( X i 1 , . . . , X i T ) D T = ( D 1 , . . . , D T )Mi=[1,Xi,D] , mit ,XTi=(Xi1,...,XiT)DT=(D1,...,DT)
- δTi=(αi,βi,γi)
- ϵTi=(ϵi1,...,ϵiT)
- ΓT=(γ1,...,γn)
- Z T = ( Z 1 , . . . , Z n )L=[1,Z] , mitZT=(Z1,...,Zn)
- cT=(a,b)
- uT=(u1,...,uN) .
Beachten Sie, dass Sie das zweite Modell für die Schätzungen von angeben, was nicht üblich ist. Daher wiederhole ich es in üblicher Form für das "wahre" .γγγ
Schreiben wir die Kovarianzmatrix für OLS-Schätzungen der Koeffizienten :c
Var(c^)=(LTL)−1LTVar(Γ)L(LTL)−1
Das Problem ist, dass wir nicht beobachten . Wir beobachten die Schätzungen . ist Teil des Vektors& Ggr;ΓΓ^γ^i
δ^i=δi+(MTiMi)−1MTiϵi.
Angenommen, ist zufällig und unabhängig von und . Dies gilt sicherlich für sodass wir nichts verlieren, wenn wir dies für andere Elemente von .δiϵiMiγiδi
Lassen Sie uns alle übereinander stapeln :δ^i
δ^T=[δT1,...,δTN]
und erforschen Sie die Varianz von :δ^
Var(δ^)=⎡⎣⎢⎢Var(δ^1)…cov(δ^n,δ^1)cov(δ^1,δ^2)…cov(δ^n,δ2)………cov(δ^1,δ^N)…Var(δ^N)⎤⎦⎥⎥
Angenommen, und . Für wirVar(ϵi)=σ2ϵIEϵiϵTj=0i≠j
cov(δ^i,δ^j)=cov(δi,δj)+cov((MTiMi)−1MTiϵi,(MTjMj)−1MTjϵj)=(MTiMi)−1MTiE(ϵiϵTj)Mj(MTjMj)−1=0
Für diagonale Elemente haben wir
Var(δ^i)=Var(δi)+σ2ϵ(MTiMi)−1
Kehren wir zur Varianz von . Da wir anstelle von die Varianz wie folgtc^Γ^Γ
Var(c^)=(LTL)−1LTVar(Γ^)L(LTL)−1,
Wir können aus extrahieren, indem wir geeignete Elemente auswählen:Var(Γ^)Var(δ^)
Var(Γ^)=Var(Γ)+diag(g1,...,gn)
Dabei ist das Element von , das dem . Jedes unterscheidet sich von da sie unterschiedlichen und denen nicht angenommen wird, dass sie gleich sind.σ 2 ϵ ( M T igiσ2ϵ(MTiMi)−1Var(γ^i)gigjXitXjt
Wir erhalten also das überraschende Ergebnis, dass algebraisch, selbst wenn wir alle notwendigen Eigenschaften annehmen, die resultierende Kovarianzmatrix zumindest algebraisch nicht der üblichen OLS-Kovarianzmatrix entspricht, da wir dafür benötigen, dass konstant ist mal identitätsmatrix was es eindeutig nicht ist.Var(Γ^)
Alle obigen Formeln wurden unter der Annahme abgeleitet, dass konstant ist, daher sind sie von abhängig . Dies bedeutet, dass wir tatsächlich berechnet haben . Durch zusätzliche Annahmen zu könnte gezeigt werden, dass die bedingungslose Varianz in Ordnung ist.XijXijVar(Γ^|X)Xij
Die auf aufgestellte Unabhängigkeitsannahme kann auch auf Unkorrelation gelockert werden. ϵi
Es wäre auch möglich, eine Simulationsstudie zu verwenden, um zu sehen, wie sich die Kovarianzmatrix unterscheidet, wenn wir anstelle von . & Ggr;Γ^Γ