Diese Antwort betont die Überprüfung der Schätzbarkeit. Die Eigenschaft der minimalen Varianz ist von meiner sekundären Überlegung.
Fassen Sie zunächst die Informationen in Form einer Matrix eines linearen Modells wie folgt zusammen:
wobeiE(ε)=0,Var(ε)=σ2I(um die Abschätzbarkeit zu diskutieren, ist die Sphäritätsannahme nicht erforderlich. Um jedoch die Gauß-Markov-Eigenschaft zu diskutieren, müssen wir die Sphärität annehmen vonε).
Y:=⎡⎣⎢⎢⎢Y1Y2Y3Y4⎤⎦⎥⎥⎥=⎡⎣⎢⎢⎢1111010−1−1−1−1−1⎤⎦⎥⎥⎥⎡⎣⎢θ1θ2θ3⎤⎦⎥+⎡⎣⎢⎢⎢ε1ε2ε3ε4⎤⎦⎥⎥⎥:=Xβ+ε,(1)
E(ε)=0,Var(ε)=σ2Iε
Wenn die Designmatrix vollen Rang ist, dann ist die ursprünglichen Parameter β hat eine eindeutige Least-Squares - Schätzung β = ( X ' X ) - 1 X ' Y . Folglich jeder Parameter φ , als eine lineare Funktion definiert φ ( β ) von β ist , in dem Sinne , dass es schätzen eindeutig durch die Daten über die kleinsten Quadrate geschätzt werden , abzuschätzen β als φ = p ' β .Xββ^=(X′X)−1X′Yϕϕ(β)ββ^ϕ^=p′β^
Die Subtilität entsteht, wenn nicht den vollen Rang hat. Um eine eingehende Erörterung zu ermöglichen, werden zunächst einige Notationen und Ausdrücke festgelegt (ich befolge die Konvention des koordinatenfreien Ansatzes für lineare Modelle , Abschnitt 4.8. Einige der Ausdrücke klingen unnötig technisch). Darüber hinaus gilt die Diskussion zu dem allgemeinen linearen Modell Y = X β + ε mit X ∈ R n × k und β ∈ R k .XY=Xβ+εX∈Rn×kβ∈Rk
- Eine Regressions Verteiler ist die Sammlung von Mittelwertvektoren als über variiert R k :
M = { X β : β ∈ R k } .βRk
M={Xβ:β∈Rk}.
- Eine parametrische Funktion ist eine lineare Funktion von β ,
ϕ ( β ) = p ′ β = p 1 β 1 + ⋯ + p k β k .ϕ=ϕ(β)β
ϕ(β)=p′β=p1β1+⋯+pkβk.
Wie oben erwähnt, ist, wenn , nicht jede parametrische Funktion ϕ ( β ) abschätzbar. Aber warten Sie, wie ist die Definition des Begriffs technisch abschätzbar ? Es scheint schwierig zu sein, eine klare Definition zu geben, ohne sich um eine kleine lineare Algebra zu kümmern. Eine Definition, die ich für die intuitivste halte, lautet wie folgt (aus derselben oben genannten Referenz):rank(X)<kϕ(β)
Definition 1. Eine parametrische Funktion ist abschätzbar, wenn sie durch X β eindeutigin dem Sinne bestimmt wird, dass ϕ ( β 1 ) = ϕ ( β 2 ) ist, wenn β 1 , β 2 ∈ R k X β 1 = X erfüllen β 2 .ϕ(β)Xβϕ(β1)=ϕ(β2)β1,β2∈RkXβ1=Xβ2
Deutung. Die obige Definition legt fest, dass die Abbildung von der Regressions Mannigfaltigkeit auf den Parameterraum von ϕ eins zu eins sein muss, was garantiert ist, wenn Rang ( X ) = k ist (dh wenn X selbst eins zu eins ist). Wenn Rang ( X ) < k ist , wissen wir, dass es β 1 ≠ β 2 gibt, so dass X β 1 = X β 2 istMϕrank(X)=kXrank(X)<kβ1≠β2Xβ1=Xβ2. Die vorstehende abschätzbare Definition schließt diejenigen strukturdefizienten parametrischen Funktionen aus, die selbst bei gleichem Wert für unterschiedlichen Werten führen , was auf natürliche Weise keinen Sinn ergibt . Andererseits erlaubt eine schätzbare parametrische Funktion ϕ ( ⋅ ) den Fall ϕ ( β 1 ) = ϕ ( β 2 ) mit β 1 ≠ β 2 , solange die Bedingung X β 1 = X β 2 erfüllt ist.Mϕ(⋅)ϕ(β1)=ϕ(β2)β1≠β2Xβ1=Xβ2
There are other equivalent conditions to check the estimability of a parametric functional given in the same reference, Proposition 8.4.
After such a verbose background introduction, let's come back to your question.
A. β itself is non-estimable for the reason that rank(X)<3, which entails Xβ1=Xβ2 with β1≠β2. Although the above definition is given for scalar functionals, it is easily generalized to vector-valued functionals.
ϕ1(β)=θ1+θ3=(1,0,1)′ββ1=(0,1,0)′β2=(1,1,1)′, which gives Xβ1=Xβ2 but ϕ1(β1)=0+0=0≠ϕ1(β2)=1+1=2
ϕ2(β)=θ1−θ3=(1,0,−1)′βXβ1=Xβ2 trivially implies θ(1)1−θ(1)3=θ(2)1−θ(2)3, i.e., ϕ2(β1)=ϕ2(β2).
D. ϕ3(β)=θ2=(0,1,0)′β is also estimable. The derivation from Xβ1=Xβ2 to ϕ3(β1)=ϕ3(β2) is also trivial.
After the estimability is verified, there is a theorem (Proposition 8.16, same reference) claims the Gauss-Markov property of ϕ(β). Based on that theorem, the second part of option C is incorrect. The best linear unbiased estimate is Y¯=(Y1+Y2+Y3+Y4)/4, by the theorem below.
Theorem. Let ϕ(β)=p′β be an estimable parametric functional, then its best linear unbiased estimate (aka, Gauss-Markov estimate) is ϕ(β^) for any solution β^ to the normal equations X′Xβ^=X′Y.
The proof goes as follows:
Proof. Straightforward calculation shows that the normal equations is
⎡⎣⎢40−4020−404⎤⎦⎥β^=⎡⎣⎢10−111−110−11−1−1⎤⎦⎥Y,
which, after simplification, is
⎡⎣⎢⎢ϕ(β^)θ^2/2−ϕ(β^)⎤⎦⎥⎥=⎡⎣⎢Y¯(Y2−Y4)/4−Y¯⎤⎦⎥,
i.e., ϕ(β^)=Y¯.
Therefore, option D is the only correct answer.
Addendum: The connection of estimability and identifiability
When I was at school, a professor briefly mentioned that the estimability of the parametric functional ϕ corresponds to the model identifiability. I took this claim for granted then. However, the equivalance needs to be spelled out more explicitly.
According to A.C. Davison's monograph Statistical Models p.144,
Definition 2. A parametric model in which each parameter θ generates a different distribution is called identifiable.
For linear model (1), regardless the spherity condition Var(ε)=σ2I, it can be reformulated as
E[Y]=Xβ,β∈Rk.(2)
It is such a simple model that we only specified the first moment form of the response vector Y. When rank(X)=k, model (2) is identifiable since β1≠β2 implies Xβ1≠Xβ2 (the word "distribution" in the original definition, naturally reduces to
"mean" under model (2).).
Now suppose that rank(X)<k and a given parametric functional ϕ(β)=p′β, how do we reconcile Definition 1 and Definition 2?
Well, by manipulating notations and words, we can show that (the "proof" is rather trivial) the estimability of ϕ(β) is equivalent to that the model (2) is identifiable when it is parametrized with parameter ϕ=ϕ(β)=p′β (the design matrix X is likely to change accordingly). To prove, suppose ϕ(β) is estimable so that Xβ1=Xβ2 implies p′β1=p′β2, by definition, this is ϕ1=ϕ2, hence model (3) is identifiable when indexing with ϕ. Conversely, suppose model (3) is identifiable so that Xβ1=Xβ2 implies ϕ1=ϕ2, which is trivially ϕ1(β)=ϕ2(β).
Intuitively, when X is reduced-ranked, the model with β is parameter redundant (too many parameters) hence a non-redundant lower-dimensional reparametrization (which could consist of a collection of linear functionals) is possible. When is such new representation possible? The key is estimability.
To illustrate the above statements, let's reconsider your example. We have verified parametric functionals ϕ2(β)=θ1−θ3 and ϕ3(β)=θ2 are estimable. Therefore, we can rewrite the model (1) in terms of the reparametrized parameter (ϕ2,ϕ3)′ as follows
E[Y]=⎡⎣⎢⎢⎢1111010−1⎤⎦⎥⎥⎥[ϕ2ϕ3]=X~γ.
Clearly, since X~ is full-ranked, the model with the new parameter γ is identifiable.
self-study
Tag ein oder jemand kommt vorbei und schließt Ihre Frage.