Was sind die Definitionen von halbkonjugierten Priors und von bedingten konjugierten Priors ? Ich habe sie in Gelmans Bayesian Data Analysis gefunden , aber ich konnte ihre Definitionen nicht finden.
Unter Verwendung der Definition in der Bayes'schen Datenanalyse (3. Ausgabe) ist die Klasse P für F konjugiert , wenn eine Klasse von Stichprobenverteilungen p ( y | θ ) und P eine Klasse früherer Verteilungen für θ ist , wenn
Wenn eine Klasse von Abtastverteilungen p ( y | θ , ϕ ) ist und P eine Klasse früherer Verteilungen für θ ist, die von ϕ abhängig sind , dann ist die Klasse P ein bedingtes Konjugat für F. wenn
Bedingt konjugierte Priors sind praktisch bei der Konstruktion eines Gibbs-Samplers, da die vollständige Bedingung eine bekannte Familie sein wird.
Ich suchte in einer elektronischen Version der Bayesian Data Analysis (3. Aufl.) Und konnte vorher keinen Hinweis auf ein Halbkonjugat finden. Ich vermute, es ist gleichbedeutend mit bedingt konjugiert, aber wenn Sie einen Hinweis auf seine Verwendung in dem Buch geben, sollte ich in der Lage sein, eine Definition bereitzustellen.
Ich möchte als Beispiel multivariate Normalen verwenden.
Denken Sie daran, dass die Wahrscheinlichkeit gegeben ist durch
In order to find a prior to this likelihood, we may choose
I assure you NOT to worry aboutμ0,Λ0,ν0,S0 for now; they are simply parameters of the prior distribution.
What is important is, however, that this is not conjugate to the likelihood. To see why, I would like to quote a reference I found online.
The reference is "Machine Learning: A Probabilistic Perspective" by Kevin P. Murphy. Here is the link. You may find the quote in Section 4.6 (Inferring the parameters of an MVN) at the top of page 135.
To continue the quote,
The idea here is that the first prior distribution
assumes thatμ and Σ are separable (or independent in a sense). Nevertheless, we observe that in the likelihood function, μ and Σ cannot be factorized out separately, which implies that they will not be separable in the posterior (Recall, (Posterior)∼(Prior)(Likelihood) ). This shows that the "un-separable" posterior and "separable" prior at the beginning are not conjugate. On the other hand, by rewriting
such thatμ and Σ depend on each other (through p(μ|Σ) ), you will obtain a conjugate prior, which is named as semi-conjugate prior. This hopefully answers your question.
p.s.: Another really helpful reference I have used is "A First Course in Bayesian Statistical Methods" by Peter D. Hoff. Here is a link to the book. You may find relevant content in Section 7 starting from page 105, and he has a very good explanation (and intuition) about single-variate normal distribution in Section 5 starting from page 67, which will be reinforced again in Section 7 when he deals with MVN.
quelle
IfF is a class of sampling distributions p(y|θ,ϕ) , and P is a class of prior distributions for θ , then the class P is semiconjugate for F if
p(θ|y,ϕ)∈P for all p(⋅|θ,ϕ)∈F and p(θ,ϕ)=p(θ)×p(ϕ) , where p(θ)∈P and p(ϕ) does not belong to class P .
quelle