Es ist bekannt, dass der Bayes'sche Prior "vergessen" wird , wenn Sie mehr Beweise haben (z. B. in Form eines größeren für iid-Beispiele), und der größte Teil der Schlussfolgerung wird durch die Beweise (oder die Wahrscheinlichkeit) beeinflusst.
Es ist leicht, es für verschiedene spezielle Fälle zu sehen (wie Bernoulli mit Beta vor oder andere Arten von Beispielen) - aber es gibt eine Möglichkeit, es im allgemeinen Fall mit und einige frühere ?
EDIT: Ich vermute, dass es im allgemeinen Fall für keinen Prior gezeigt werden kann (zum Beispiel würde ein Punktmassenprior den Posterior eine Punktmasse halten). Aber vielleicht gibt es bestimmte Bedingungen, unter denen ein Prior vergessen wird.
Hier ist die Art von "Weg", über den ich nachdenke:
Angenommen, der Parameterraum ist , und und seien zwei Prioritäten, die eine Wahrscheinlichkeitsmasse ungleich Null auf ganz . Die beiden hinteren Berechnungen für jeden vorherigen Betrag betragen also:
und
Wenn Sie durch (die Posterioren) teilen , erhalten Sie:
Jetzt möchte ich den obigen Begriff untersuchen, wenn zu . Idealerweise würde es für ein bestimmtes , das "Sinn macht" oder ein anderes nettes Verhalten, auf gehen , aber ich kann nicht herausfinden, wie ich dort etwas zeigen kann.
Antworten:
Nur eine grobe, aber hoffentlich intuitive Antwort.
Betrachten Sie es aus der Sicht des Log-Space: wobei eine Konstante ist, die von den Daten, aber nicht vom Parameter abhängt, und bei der Ihre Wahrscheinlichkeiten iid-Beobachtungen annehmen. Konzentrieren Sie sich daher nur auf den Teil, der die Form Ihres Seitenzahns bestimmt, nämlich
Es sei angenommen , dass es eine , so dass . Dies ist für diskrete Verteilungen sinnvoll.D>0 −logP(θ)≤D
Da die Begriffe alle positiv sind, wird "wachsen" (ich überspringe hier die technischen Details). Der Beitrag des Prior ist jedoch durch . Daher nimmt der vom Prior gelieferte Anteil, der höchstens beträgt , mit jeder zusätzlichen Beobachtung monoton ab.Sn D D/Sn
Strenge Beweise müssen sich natürlich den technischen Details stellen (und sie können sehr schwierig sein), aber die obige Einstellung ist meiner Meinung nach der grundlegende Teil.
quelle
Ich bin etwas verwirrt darüber, was die Aussagen des "Prior ist vergessen" und "der größte Teil der Schlussfolgerung wird durch die Beweise beeinflusst" bedeuten sollen. Ich nehme an, Sie meinen, wenn die Datenmenge zunimmt, nähern sich die (Sequenz-) Schätzer dem wahren Wert des Parameters an, unabhängig von unserem vorherigen.
Unter der Annahme einiger Regelmäßigkeitsbedingungen für die Form der posterioren Verteilung sind die Bayes-Schätzer konsistent und asymptotisch unvoreingenommen (siehe Gelman et al., Kapitel 4 ). Dies bedeutet, dass sich der Bayes-Schätzer mit zunehmender Stichprobengröße dem wahren Wert des Parameters nähert. Konsistenz bedeutet, dass der Bayes-Schätzer in der Wahrscheinlichkeit gegen den wahren Parameterwert konvergiert, und asymptotische bedeutet, dass unter der Annahme, dass der wahre Wert des Parameters ist,θ0
Die Konvergenz hängt nicht von der spezifischen Form des Prior ab, sondern nur davon, dass die vom Prior erhaltene posteriore Verteilung und die Wahrscheinlichkeit die Regelmäßigkeitsbedingungen erfüllen.
Die wichtigste in Gelman et al. Erwähnte Regelmäßigkeitsbedingung ist, dass die Wahrscheinlichkeit eine kontinuierliche Funktion des Parameters ist und der wahre Wert des Parameters im Inneren des Parameterraums liegt. Wie Sie bereits bemerkt haben, muss der Posterior in einer offenen Nachbarschaft des wahren Werts des wahren Werts des Parameters ungleich Null sein. Normalerweise sollte Ihr Prior im gesamten Parameterraum ungleich Null sein.
quelle