Warum konvergiert MAP zu MLE?


8

In Kevin Murphys "Maschinelles Lernen: Eine probabilistische Perspektive", Kapitel 3.2, demonstriert der Autor das Bayes'sche Konzeptlernen an einem Beispiel namens "Zahlenspiel": Nachdem wir Proben aus , wollen wir Wählen Sie eine Hypothese die die Regel, die die Stichproben generiert hat, am besten beschreibt. Zum Beispiel "gerade Zahlen" oder "Primzahlen".{ 1 , . . . , 100 } hN{1,...,100}h

Die maximalen a-posteriori und maximalen Wahrscheinlichkeitsschätzungen sind definiert als:

h^MAP=argmaxh p(D|h)p(h)=argmaxh[logp(D|h)+logp(h)],

h^MLE=argmaxh p(D|h)=argmaxhlogp(D|h),

wobei p(h) die vorherigen Wahrscheinlichkeiten verschiedener Hypothesen darstellt und der hintere definiert ist als:

p(D|h)=[1|h|]N,

iff Dh , dh wie wahrscheinlich ist es, dass eine einheitliche Stichprobe mit Ersetzung aus der Hypothese h set \ mathcal {D} ergibt D. Intuitiv bedeutet dies, dass der hintere Teil für "kleinste" Hypothesen am höchsten ist. Zum Beispiel erklären Hypothesen "Potenzen von 2" Beobachtungen {2,4,8,16,64} besser als "gerade Zahlen".

All dies ist klar. Ich bin jedoch verwirrt über den folgenden Satz (obwohl er intuitiv vollkommen sinnvoll ist):

Da der Wahrscheinlichkeitsterm exponentiell von abhängt und der vorherige konstant bleibt, wenn wir mehr und mehr Daten erhalten, konvergiert die MAP-Schätzung gegen die maximale Wahrscheinlichkeitsschätzung.N

Es ist wahr , dass die Wahrscheinlichkeit exponentiell abhängt , jedoch ist die potenzierte Zahl in dem Intervall und als , , so dass die Wahrscheinlichkeit , dass tatsächlich sollte verschwinden.( 0 , 1 ) N x N0N(0,1)NxN0

Warum konvergiert MAP in diesem Fall zu MLE?


1
Dies ist eine Folge des Satzes von Bernstein - von Mises: nber.org/WNE/Slides7-31-07/slides_7_bayes.pdf (ab Folie 9.) Auch: andrewgelman.com/2017/11/27/asymptotically-we- sind alle tot .
Jbowman

Danke für die Referenzen. Wie erklären sie jedoch dieses widersprüchliche Beispiel?
Jan Kukacka

Antworten:


5

Hier gibt es zwei Probleme: Erstens, warum konvergiert der MAP allgemein (aber nicht immer) zum MLE und das Problem der "verschwindenden Wahrscheinlichkeit".

In der ersten Ausgabe verweisen wir auf den Satz von Bernstein - von Mises. Das Wesentliche dabei ist, dass sich mit zunehmender Stichprobengröße die im Prior und in den Daten enthaltenen relativen Informationen zugunsten der Daten verschieben, sodass sich der Posterior stärker auf die Nur-Daten-Schätzung des MLE und den Peak konzentriert konvergiert tatsächlich zur MLE (mit der üblichen Einschränkung, dass bestimmte Annahmen erfüllt sein müssen). Eine kurze Übersicht finden Sie auf der Wikipedia-Seite .

Bei der zweiten Ausgabe tritt dies auf, weil Sie die hintere Dichte nicht normalisiert haben. Nach der Bayes-Regel:

P(h|D)=P(D|h)p(h)p(D)

und obwohl als , wie Sie beobachten, auch . Wenn wir für etwas mehr Konkretheit zwei Hypothesen und annehmen , finden wir den posterioren durch:P(D|h)0nP(D)h1h2

P(h1|D)=P(D|h1)p(h1)P(D|h1)p(h1)+P(D|h2)p(h2)

Sowohl der Zähler als auch der Nenner haben Terme, die auf die Potenz angehoben sind , also beide als , aber es sollte klar sein, dass die erforderliche Normalisierung das Problem behebt, das dies sonst verursachen würde.0 N N0N

Durch die Nutzung unserer Website bestätigen Sie, dass Sie unsere Cookie-Richtlinie und Datenschutzrichtlinie gelesen und verstanden haben.
Licensed under cc by-sa 3.0 with attribution required.