Für T gibt es keine geschlossene Form, aber ein sehr intuitiver und stabiler Ansatz ist der EM-Algorithmus. Da Student eine Mischung aus Normalen ist, können Sie Ihr Modell wie folgt schreiben
yi=μ+ei
wo und w i ~ G a ( νei|σ,wi∼N(0,σ2w−1i). Dies bedeutetdass auf bedingtwidie MLE nur der gewichtete Mittelwert und Standardabweichung sind. Dies ist der "M" -Schrittwi∼Ga(ν2,ν2)wi
& sgr; 2=Σiwi(yi - μ )2
μ^=∑iwiyi∑iwi
σ^2=∑iwi(yi−μ^)2n
Jetzt ersetzt der "E" -Schritt durch seine Erwartung, wenn alle Daten gegeben sind. Dies ist gegeben als:wi
w^i=(ν+1)σ2νσ2+(yi−μ)2
Sie iterieren einfach die obigen beiden Schritte und ersetzen die "rechte Seite" jeder Gleichung durch die aktuellen Parameterschätzungen.
μσ2σ2(ν+1)σ2oldνν
Eine zu beachtende Sache ist, dass die Log Likelihood-Funktion mehr als einen stationären Punkt haben kann, so dass der EM-Algorithmus zu einem lokalen Modus anstelle eines globalen Modus konvergieren kann. Die lokalen Modi werden wahrscheinlich gefunden, wenn der Standortparameter zu nahe an einem Ausreißer gestartet wird. Es ist also eine gute Möglichkeit, dies zu vermeiden, wenn Sie beim Median beginnen.