Mit dieser Frage beschäftige ich mich gerade. Hier ist ein Ergebnis, das hilfreich sein kann. Betrachten Sie das lineare Modell
y=Xβ+ϵ,ϵ∼N(0,σ2)
wobei und β und σ 2 sind die Parameter von Interesse. Die gemeinsame Wahrscheinlichkeit isty∈Rn,β∈Rp,βσ2
L(β,σ2)=(2πσ2)−n/2exp(−||y−Xβ||22σ2)
Optimierung der Gelenkwahrscheinlichkeitserträge
β^=X+y
σ^2=1n||r||2
wobei die Pseudoinverse ist X und r = y - X β ist die Passform Residuenvektor. Man beachte , dass in σ 2 haben wir 1 / n anstelle der bekannten Grad-of-freedom korrigierten Verhältnis 1 / ( n - p ) . Es ist bekannt, dass dieser Schätzer im Fall der endlichen Stichprobe vorgespannt ist.X+Xr=y−Xβ^σ^21/n1/(n−p)
Angenommen, statt über und σ 2 zu optimieren , integrieren wir β out und schätzen σ 2 aus der resultierenden integrierten Wahrscheinlichkeit:βσ2βσ2
σ^2=maxσ2∫RpL(β,σ2)dβ
Mit der linearen Elementaralgebra und der Gaußschen Integralformel können Sie das zeigen
σ^2=1n−p||r||2
Dies hat die Freiheitsgradkorrektur, die es unvoreingenommen und im Allgemeinen gegenüber der gemeinsamen ML-Schätzung favorisiert.
Aus diesem Ergebnis könnte man sich fragen, ob die integrierte Wahrscheinlichkeit von Natur aus etwas Vorteilhaftes hat, aber ich kenne keine allgemeinen Ergebnisse, die diese Frage beantworten. Der Konsens scheint zu sein, dass integrierte ML Unsicherheiten bei den meisten Schätzungsproblemen besser berücksichtigt. Insbesondere wenn Sie eine Menge schätzen, die von anderen Parameterschätzungen abhängt (auch implizit), kann die Integration über die anderen Parameter deren Unsicherheiten besser berücksichtigen.