Der Bayes-Satz lautet:
P.( A | B ) = P.( B | A ) P.( A )P.( B )
In einem Fall, in dem Sie Daten und einen Parameter haben, wird häufig für den Parameter (oder Parametervektor) und für die Daten verwendet.xθx
Sie können , einen Prior , und Sie haben möglicherweise ein Modell das die Wahrscheinlichkeit Ihrer Daten bei gegebenem Modell angibt. Sie können dann die Bayes-Regel / den Bayes-Satz verwenden, um dies zu "invertieren" und .θp ( θ )p ( x | θ )p ( θ | x )
Nur in einer relativ kleinen Anzahl von Beispielen ist es möglich, Lösungen in geschlossener Form für . In willkürlichen Fällen approximieren Sie häufig die posteriore Verteilung mit einigen Standardmethoden in der Bayes'schen Statistik. Die beiden häufigsten allgemeinen Ansätze sind beispielsweise Markov-Kette Monte Carlo oder Variations-Bayes.p(θ|x)
Angenommen, Sie interessieren sich für einen einfachen Fall, in dem eine geschlossene Form posterior existiert. Ein Beispiel hierfür wäre, wenn eine Standardnormalen (Gaußsch mit Einheitsvarianz und Nullmittelwert) und eine Normalen mit einem Mittelwert von und Einheitsvarianz ist.p(θ)p(x|θ)θ
Ich werde der Einfachheit halber Normalisierungsfaktoren weglassen. Beachten Sie auch, dass der Nenner in der Bayes-Regel dazu neigt, Dinge einfach zu renormieren:
Kombinieren wir die Exponenten und vervollständigen das Quadrat
Denken Sie daran, dass x hier festgelegt ist, weil es beobachtet wurde und wir erwarten möchten, dass unsere Antwort diesbezüglich lautet. Vervollständigen Sie das Quadrat und sehen Sie, dass der Exponent wobei andere Terme von x abhängen. Also:
p(θ|x)∝e−(x−θ)2/2e−θ2/2
−(x−θ)2/2−θ2/2∝−(x2−2θx+θ2)−θ2
∝−(θ−x/2)2p(θ|x)∝e−a(θ−x/2)2
wobei 'a' ein Faktor ist, der durch Buchhaltung erhalten werden kann. Beachten Sie, dass der hintere Teil eine Normalverteilung mit dem Mittelwert x / 2 ist. Versuchen Sie, die Varianz für sich selbst zu berechnen.
Beachten Sie, dass unsere Antwort intuitiv sinnvoll ist ... der Prior sagte, dass Null ist und wir eine Stichprobe , die den erwarteten Wert von . Da die Varianz des Prior und die Verteilung gleich groß sind, vertrauen wir ihnen gleichermaßen. Dementsprechend ist unser Posterior eine Verteilung mit einem Mittelwert, der der Durchschnitt von und 0 ist und am Ende eine geringere Varianz aufweist als das anfängliche oder (hier nicht gezeigt). x θ p ( x | θ ) x p ( x | θ ) p ( x )θxθp(x|θ)xp(x|θ)p(x)
Zum Modellvergleich können Sie sich ein Verhältnis ansehen:
p(x|θ1)p(x|θ2)
Dies wird als Wahrscheinlichkeitsverhältnis bezeichnet (siehe Wikipedia oder anderswo). Hier brauchen Sie den Seitenzahn nicht, sondern schauen sich nur an, wie (relativ) wahrscheinlich Ihre Daten (oder Beobachtungen) entweder oder als Parameter des Modells erhalten, das Ihre Beobachtungen generiert hat. θ 2θ1θ2
Hoffe das hilft.