Bayesianische Vorhersageverteilungen verstehen

9

Ich nehme an einem Intro-to-Bayes-Kurs teil und habe Schwierigkeiten, prädiktive Verteilungen zu verstehen. Ich verstehe, warum sie nützlich sind und ich bin mit der Definition vertraut, aber es gibt einige Dinge, die ich nicht ganz verstehe.

1) Wie man die richtige Vorhersageverteilung für einen Vektor neuer Beobachtungen erhält

Angenommen, wir haben ein Stichprobenmodell für die Daten und ein vorheriges p ( θ ) erstellt . Es sei angenommen, dass die Beobachtungen y i bei θ bedingt unabhängig sind .p(yi|θ)p(θ)yiθ

Wir haben einige Daten beobachtet , und wir aktualisieren unser vorheriges p ( θ ) auf das hintere p ( θ | D ) .D={y1,y2,...,yk}p(θ)p(θ|D)

Wenn wir einen Vektor neuer Beobachtungen vorhersagen wollten, gilt , ich denke, wir sollten versuchen, die posteriore Vorhersage mit dieser Formel zu erhalten: p ( N | D ) = p ( θ | D ) p ( N | θ )N={y~1,y~2,...,y~n} was nicht gleich n i = 1 p ( θ | D ) p ( ˜ y i | θ ) ist

p(N|D)=p(θ|D)p(N|θ)dθ=p(θ|D)i=1np(y~i|θ)dθ,
also sind die vorhergesagten Beobachtungen nicht unabhängig, oder?
i=1np(θ|D)p(y~i|θ)dθ,

θ|Da,bp(yi|θ)n,θny~

Simulation von posterioren Vorhersagen

Wenn wir Daten aus der posterioren Vorhersage simulieren, folgen wir oft diesem Schema:

bB

θ(b)p(θ|D)

N(b)p(N|θ(b))

Ich weiß nicht genau, wie ich beweisen soll, dass dieses Schema funktioniert, obwohl es intuitiv aussieht. Hat das auch einen Namen? Ich habe versucht, eine Rechtfertigung nachzuschlagen, und ich habe verschiedene Namen ausprobiert, aber ich hatte kein Glück.

Vielen Dank!

Fred L.
quelle
Ich habe eine ähnliche Frage unter stats.stackexchange.com/questions/72570/… gestellt, aber es sieht so aus, als ob Ihre bisher mehr Stimmen erhalten hat.
John

Antworten:

4

X1,,Xn,Xn+1Θ=θ

fXn+1X1,,Xn(xn+1x1,,xn)=fXn+1,ΘX1,,Xn(xn+1,θx1,,xn)dθ
=fXn+1Θ,X1,,Xn(xn+1θ,x1,,xn)fΘX1,,Xn(θx1,,xn)dθ
=fXn+1Θ(xn+1θ)fΘX1,,Xn(θx1,,xn)dθ,
ΘX1,,XnXn+1

i=1,,Nθ(i)ΘX1=x1,,Xn=xnxn+1(i)Xn+1Θ=θ(i){xn+1(i)}i=1NXn+1X1=x1,,Xn=xn

Zen
quelle
θ(i)xn+j
2

Ich werde versuchen, die Intuition hinter der Erzeugung der posterioren prädiktiven Verteilung Schritt für Schritt zu untersuchen.

yp(y|θ)y~y~yθθθp(θ|y)y~yθy

p(y~|θ,y)=p(y~,y|θ)p(θ)p(θ,y)=p(y~|θ)p(y|θ)p(θ)p(y|θ)p(θ)=p(y~|θ).

y~

p(y~|y)=Θp(y~|θ,y)p(θ|y)dθ=Θp(y~|θ)p(θ|y)dθ

Θθ

p(y~|y)


für s = 1,2, ..., S do

θ(s)p(θ|y)

y~(s)p(y~|θ(s))


p(θ|y)

p(y~,θ|y)=p(y~|θ,y)p(θ|y)θ(s)p(θ|y)y~(s)p(y~|θ(s))=p(y~|θ(s),y)p(y~,θ|y)y~(s),s=1,2,...,Sp(y~|y)

Baruuum
quelle
1

θy~1θ

hr0nix
quelle