Klarstellung der Erwartungsmaximierung


11

Ich fand ein sehr hilfreiches Tutorial zum EM-Algorithmus .

Das Beispiel und das Bild aus dem Tutorial sind einfach genial.

Geben Sie hier die Bildbeschreibung ein

Verwandte Frage zur Berechnung von Wahrscheinlichkeiten Wie funktioniert die Erwartungsmaximierung?

Ich habe noch eine Frage, wie man die im Tutorial beschriebene Theorie mit dem Beispiel verbindet.

gtlogP(x;Θ)gt(Θ^(t))=logP(x;Θ^(t))

gt

Θ^A(0)=0.6Θ^B(0)=0.5Θ^A(1)=0.71Θ^B(1)=0.58Θ^(0)Θ^(1)

Q(z)Q(z)=P(z|x;Θ)

Vielen Dank.

Antworten:


1

Ich fand diese Notizen sehr hilfreich, um herauszufinden, was im ergänzenden Material vor sich ging.

Ich werde diese Fragen aus Gründen der Kontinuität etwas außer Betrieb beantworten.


Erstens: Warum ist es das?

θ(0)θ(1)

g0log(P(x;θ))θ(0)θ(1)g0θ


Zweitens: Warum ist die Ungleichung eng, wenn

Q(z)=P(z|x;θ)

In den Fußnoten gibt es einen Hinweis darauf, wo es heißt:

y=E[y]

QP(x,z;θ)Q(z)

P(x,z;θ)=P(z|x;θ)P(x;θ)

das macht unsere Fraktion

P(z|x;θ)P(x;θ)P(z|x;θ)=P(x;θ)

P(x;θ)zC

log(zQ(z)C)zQ(z)log(C)

Q(z)


gt

Die Antwort in den von mir verlinkten Anmerkungen unterscheidet sich geringfügig von der in den ergänzenden Anmerkungen, unterscheidet sich jedoch nur durch eine Konstante, und wir maximieren sie, damit sie keine Konsequenz hat. Der in den Notizen (mit Ableitung) ist:

gt(θ)=log(P(x|θ(t)))+zP(z|x;θ(t))log(P(x|z;θ)P(z|θ)P(z|x;θ(t))P(x|θ(t)))

Über diese komplexe Formel wird in den ergänzenden Anmerkungen nicht ausführlich gesprochen, wahrscheinlich weil viele dieser Begriffe Konstanten sind, die weggeworfen werden, wenn wir maximieren. Wenn Sie daran interessiert sind, wie wir überhaupt hierher kommen, empfehle ich die von mir verlinkten Notizen.

gt(θ(t))gt(θ(t))=logP(x|θ(t))

Durch die Nutzung unserer Website bestätigen Sie, dass Sie unsere Cookie-Richtlinie und Datenschutzrichtlinie gelesen und verstanden haben.
Licensed under cc by-sa 3.0 with attribution required.