Ich nehme an einem Intro-to-Bayes-Kurs teil und habe Schwierigkeiten, prädiktive Verteilungen zu verstehen. Ich verstehe, warum sie nützlich sind und ich bin mit der Definition vertraut, aber es gibt einige Dinge, die ich nicht ganz verstehe.
1) Wie man die richtige Vorhersageverteilung für einen Vektor neuer Beobachtungen erhält
Angenommen, wir haben ein Stichprobenmodell für die Daten und ein vorheriges p ( θ ) erstellt . Es sei angenommen, dass die Beobachtungen y i bei θ bedingt unabhängig sind .
Wir haben einige Daten beobachtet , und wir aktualisieren unser vorheriges p ( θ ) auf das hintere p ( θ | D ) .
Wenn wir einen Vektor neuer Beobachtungen vorhersagen wollten, gilt , ich denke, wir sollten versuchen, die posteriore Vorhersage mit dieser Formel zu erhalten: p ( N | D ) = ∫ p ( θ | D ) p ( N | θ ) was nicht gleich n ∏ i = 1 ∫ p ( θ | D ) p ( ˜ y i | θ ) ist
Simulation von posterioren Vorhersagen
Wenn wir Daten aus der posterioren Vorhersage simulieren, folgen wir oft diesem Schema:
Ich weiß nicht genau, wie ich beweisen soll, dass dieses Schema funktioniert, obwohl es intuitiv aussieht. Hat das auch einen Namen? Ich habe versucht, eine Rechtfertigung nachzuschlagen, und ich habe verschiedene Namen ausprobiert, aber ich hatte kein Glück.
Vielen Dank!
quelle
Antworten:
quelle
Ich werde versuchen, die Intuition hinter der Erzeugung der posterioren prädiktiven Verteilung Schritt für Schritt zu untersuchen.
für s = 1,2, ..., S do
quelle
quelle