Antworten:
Unter Verwendung der Definition in der Bayes'schen Datenanalyse (3. Ausgabe) ist die Klasse P für F konjugiert , wenn eine Klasse von Stichprobenverteilungen p ( y | θ ) und P eine Klasse früherer Verteilungen für θ ist , wenn
Wenn eine Klasse von Abtastverteilungen p ( y | θ , ϕ ) ist und P eine Klasse früherer Verteilungen für θ ist, die von ϕ abhängig sind , dann ist die Klasse P ein bedingtes Konjugat für F. wenn
Bedingt konjugierte Priors sind praktisch bei der Konstruktion eines Gibbs-Samplers, da die vollständige Bedingung eine bekannte Familie sein wird.
Ich suchte in einer elektronischen Version der Bayesian Data Analysis (3. Aufl.) Und konnte vorher keinen Hinweis auf ein Halbkonjugat finden. Ich vermute, es ist gleichbedeutend mit bedingt konjugiert, aber wenn Sie einen Hinweis auf seine Verwendung in dem Buch geben, sollte ich in der Lage sein, eine Definition bereitzustellen.
Ich möchte als Beispiel multivariate Normalen verwenden.
Denken Sie daran, dass die Wahrscheinlichkeit gegeben ist durch
In order to find a prior to this likelihood, we may choose
I assure you NOT to worry about for now; they are simply parameters of the prior distribution.
What is important is, however, that this is not conjugate to the likelihood. To see why, I would like to quote a reference I found online.
note that and appear together in a non-factorized way in the likelihood; hence they will also be coupled together in the posterior
The reference is "Machine Learning: A Probabilistic Perspective" by Kevin P. Murphy. Here is the link. You may find the quote in Section 4.6 (Inferring the parameters of an MVN) at the top of page 135.
To continue the quote,
The above prior is sometimes called semi-conjugate or conditionally conjugate, since both conditionals, and , are individually conjugate. To create a full conjugate prior, we need to use a prior where and are dependent on each other. We will use a joint distribution of the form
The idea here is that the first prior distribution
assumes that and are separable (or independent in a sense). Nevertheless, we observe that in the likelihood function, and cannot be factorized out separately, which implies that they will not be separable in the posterior (Recall, ). This shows that the "un-separable" posterior and "separable" prior at the beginning are not conjugate. On the other hand, by rewriting
such that and depend on each other (through ), you will obtain a conjugate prior, which is named as semi-conjugate prior. This hopefully answers your question.
p.s.: Another really helpful reference I have used is "A First Course in Bayesian Statistical Methods" by Peter D. Hoff. Here is a link to the book. You may find relevant content in Section 7 starting from page 105, and he has a very good explanation (and intuition) about single-variate normal distribution in Section 5 starting from page 67, which will be reinforced again in Section 7 when he deals with MVN.