Es gibt eine "theoretische" und eine "pragmatische" Antwort.
Unter einem theoretischen Gesichtspunkt existiert der hintere Teil nicht, wenn ein Prior unangemessen ist (sehen Sie sich Matthews Antwort für eine fundiertere Aussage an), sondern kann durch eine einschränkende Form angenähert werden.
Umfassen die Daten eine bedingte Stichprobe aus der Bernoulli - Verteilung mit dem Parameter und hat θ die Beta - Verteilung mit den Parametern α und β , so ist die hintere Verteilung von θ die Beta - Verteilung mit den Parametern α + s , β + n - s ( n Beobachtungen, s Erfolge) und sein Mittelwert ist ( α + s ) / ( α + β + n )θθαβθα+s,β+n−sns(α+s)/(α+β+n) . Wenn wir die falsche (und unwirkliche) Beta-Verteilung vor früheren Hypeparametern und geben vor, dass π ( θ ) ∝ θ - 1 ( 1 - θ ) - 1 , wir erhalten eine richtige posteriore Proportionalität zu θ s - 1 ( 1 - θ ) n - s - 1 , dh das pdf des Beta Verteilung mit Parametern s bis auf einen konstanten Faktor. Dies ist die limitierende Form des Seitenzahns für ein Beta vor den Parametern α → 0 undα=β=0π(θ)∝θ−1(1−θ)−1θs−1(1−θ)n−s−1s und n−sα→0 (Degroot & Schervish, Beispiel 7.3.13).β→0
In einem normalen Modell mit Mittelwert , bekannten Varianz & sgr; 2 und einer N ( μ 0 , τ 2 0 ) vor Verteilung für θ , wenn der Stand der Präzision, 1 / τ 2 0 , ist klein gegenüber der Datengenauigkeit, n / σ 2 , dann ist die hintere Verteilung ungefähr so, als ob τ 2 0 = ∞ :
p ( θ ∣ x ) ≈ N ( θ ∣ ˉθσ2N(μ0,τ20)θ1/τ20n/σ2τ20=∞
dh die posteriore Verteilung ist ungefähr diejenige, die sich aus der Annahme ergeben würde, dass p ( θ ) proportional zu einer Konstanten für θ ∈ ( - ∞ , ∞ ) ist , eine Verteilung, die nicht unbedingt möglich ist, sondern die einschränkende Form des posterioren wenn sich τ 2 0 nähert
p(θ∣x)≈N(θ∣x¯,σ2/n)
p(θ)θ∈(−∞,∞)τ20existiert (
Gelman et al., S. 52).
∞
Unter einem "pragmatischen" Gesichtspunkt ist wenn
p ( x ≤ & thgr ; ) = 0 ist, was auch immer p ( & thgr; ) ist, wenn also p ( x ≤ & thgr ; ) ≤ 0 in
( a , b ) , dann ∫ ∞ - ∞ p ( x ∣ θ ) p ( θp(x∣θ)p(θ)=0p(x∣θ)=0p(θ)p(x∣θ)≠0(a,b)∫∞−∞p(x∣θ)p(θ)dθ=∫bap(x∣θ)p(θ)dθ(a,b)f(x)=k,x∈(−∞,∞)f(x)=kx−1,x∈(0,∞)(a,b)θU(−∞,∞)(a,b)θ∼U(a,b),
i.e. p(x∣θ)p(θ)=p(x∣θ)k∝p(x∣θ). For a
concrete example, this is what happens in Stan: if no
prior is specified for a parameter, it is implicitly given a uniform prior on
its support and this is handled as a multiplication of the likelihood by a constant.