Verzerrung der Maximum-Likelihood-Schätzer für die logistische Regression


10

Ich möchte einige Fakten zu Maximum Likelihood Estimators (MLEs) für logistische Regressionen verstehen.

  1. Stimmt es, dass die MLE für die logistische Regression im Allgemeinen voreingenommen ist? Ich würde Ja sagen". Ich weiß zum Beispiel, dass die Probendimension mit der asymptotischen Verzerrung von MLEs zusammenhängt.

    Kennen Sie elementare Beispiele für dieses Phänomen?

  2. Wenn der MLE voreingenommen ist, ist es wahr, dass die Kovarianzmatrix der MLEs das Inverse des Hessischen der Maximum-Likelihood-Funktion ist?

    edit : Ich habe diese Formel ziemlich oft und ohne Beweise getroffen; es scheint mir eine ziemlich willkürliche Wahl zu sein.

Antworten:


15

T

Pr(Yi=1Ti=1)=Λ(α+βTi)
ΛΛ(u)=[1+exp{u}]1

ln(Pr(Yi=1Ti=1)1Pr(Yi=1Ti=1))=α+βTi

nn1Ti=1n0Ti=0n1+n0=n

Pr^(Y=1T=1)P^1|1=1n1Ti=1yi

Pr^(Y=1T=0)P^1|0=1n0Ti=0yi

Dann bietet dieses sehr grundlegende Modell geschlossene Lösungen für den ML-Schätzer:

α^=ln(P^1|01P^1|0),β^=ln(P^1|11P^1|1)ln(P^1|01P^1|0)

VORSPANNEN

P^1|1P^1|0

lim

limnE[α^]=E[ln(limnP^1|01P^1|0)]=E[ln(P1|01P1|0)]=α

β


θ0=(α,β)

n(θ^θ0)dN(0,(E[H])1)

H

Var(θ^)1n(E[H])11n(1nH^)1=H^1
Durch die Nutzung unserer Website bestätigen Sie, dass Sie unsere Cookie-Richtlinie und Datenschutzrichtlinie gelesen und verstanden haben.
Licensed under cc by-sa 3.0 with attribution required.