Yudi Pawitan schreibt in seinem Buch In All Likelihood, dass die zweite Ableitung der logarithmischen Wahrscheinlichkeit, die mit den Maximum-Likelihood-Schätzungen (MLE) bewertet wird, die beobachteten Fisher-Informationen sind (siehe auch dieses Dokument , Seite 2). Dies ist genau das, was die meisten Optimierungsalgorithmen optim
im R
Gegenzug mögen : das Hessische, das an der MLE evaluiert wurde. Wenn das NegativeLog-Wahrscheinlichkeit wird minimiert, der negative Hessische wird zurückgegeben. Wie Sie richtig bemerken, sind die geschätzten Standardfehler des MLE die Quadratwurzeln der diagonalen Elemente des Inversen der beobachteten Fisher-Informationsmatrix. Mit anderen Worten: Die Quadratwurzeln der diagonalen Elemente des Inversen des Hessischen (oder des negativen Hessischen) sind die geschätzten Standardfehler.
Zusammenfassung
- Der im MLE bewertete negative Hessian entspricht der beobachteten Fisher-Informationsmatrix, die im MLE ausgewertet wurde.
- Zu Ihrer Hauptfrage: Nein, es ist nicht richtig, dass die beobachteten Fisher-Informationen durch Invertieren des (negativen) Hessischen gefunden werden können.
- Zu Ihrer zweiten Frage: Das Inverse des (negativen) Hessischen ist ein Schätzer der asymptotischen Kovarianzmatrix. Daher sind die Quadratwurzeln der diagonalen Elemente der Kovarianzmatrix Schätzer der Standardfehler.
- Ich denke, das zweite Dokument, das Sie verlinken, hat etwas falsch gemacht.
Formal
Sei eine Log-Likelihood-Funktion. Die Fisher-Informationsmatrix ist eine symmetrische Matrix mit den Einträgen:
Die beobachtete Fisher-Informationsmatrix ist einfach , wobei die Informationsmatrix mit den Maximum-Likelihood-Schätzungen (MLE) bewertet wird. Das Hessische ist definiert als:
l(θ) I(θ)(p×p)
I(θ)=−∂2∂θi∂θjl(θ), 1≤i,j≤p
I(θ^ML)H(θ)=∂2∂θi∂θjl(θ), 1≤i,j≤p
Es ist nichts anderes als die Matrix der zweiten Ableitungen der Wahrscheinlichkeitsfunktion in Bezug auf die Parameter. Wenn Sie also die
negative log-Wahrscheinlichkeit minimieren , entspricht der zurückgegebene Hessische Wert der beobachteten Fisher-Informationsmatrix. Wenn Sie dagegen die log-Wahrscheinlichkeit maximieren, ist der
negative Hessische Wert die beobachtete Informationsmatrix.
Ferner ist die Inverse der Fisher-Informationsmatrix ein Schätzer der asymptotischen Kovarianzmatrix:
Die Standardfehler sind dann die Quadratwurzeln der diagonalen Elemente der Kovarianzmatrix. Für die asymptotische Verteilung einer Maximum-Likelihood-Schätzung können wir
wobei den wahren Parameterwert bezeichnet. Daher ist der geschätzte Standardfehler der Maximum-Likelihood-Schätzungen gegeben durch:
Var(θ^ML)=[I(θ^ML)]−1
θ^ML∼aN(θ0,[I(θ^ML)]−1)
θ0SE(θ^ML)=1I(θ^ML)−−−−−−√