In einem Lehrbuch gibt es ein Hausaufgabenproblem, bei dem die Richtigkeit einer bestimmten posterioren Verteilung überprüft werden soll, und ich habe ein kleines Problem damit. Das Setup besteht darin, dass Sie ein logistisches Regressionsmodell mit einem Prädiktor haben und eine falsche Uniform vor .
Insbesondere nehmen wir für dass
also Die Wahrscheinlichkeit ist
Das Problem ist, dass ich vermute, dass dieser hintere tatsächlich unpassend ist.
Für die spezifische Situation mit können wir sehen, dass
, wenn wir die Änderung der Variablen und
In der Zeile mit dem Sternchen nehmen wir an, dass 0 <y <n ist. Wenn dies nicht der Fall ist, erhalten wir dasselbe.
Mache ich hier etwas Dummes? Oder ist das ein unpassender posterior?
Antworten:
Für können Sie direkt aus Ihrer Gleichung die Wahrscheinlichkeit dass die hintere Dichte entlang der Parallellinien konstant ist, bei denen konstante Werte annimmt. Der hintere Teil ist also in der Tat unpassend und hat die Form eines Kamms für . Grundsätzlich ist jede Regressionslinie, die der beobachteten Antwort bei , gleich gut.k =1 p ( α , β |y1,x1) α + βxich k =1 x1
Nehmen wir als nächstes an, wir haben Beobachtungen. Betrachten Sie die Neuparametrisierung durch Da dies eine lineare Transformation von mit ist Eine konstante Determinante des Prior für ist auch über einheitlich , vorausgesetzt, . Betrachten Sie die weitere Neuparametrisierung, die inverse Logit-Transformation für . Es ist klar, dass auch a priori unabhängig von den durch angegebenen Dichten sindk = 2 η1η2= α + βx1= α + βx2 α , β η1,η2 R.2 x1≠x2 pich=11 +e- -ηich, i = 1 , 2 p1,p2 π(pich) = π(ηich)∣∣dηichdpich∣∣∝ddpichlnpich1 -pich=1( 1 -pich)pich
Dies sind sogenannte unpassende Haldane-Priors , die als eine bestimmte Form der Begrenzung der Dichte einer Beta-Verteilung interpretiert werden können, wobei beide Parameter gegen Null gehen. Bedingt durch die Daten , vorausgesetzt, dass , ist die hintere Randdichte für jedes die richtige Beta-Verteilung mit den Parametern . Bei der Rücktransformation müssen auch die posterioren Verteilungen von und korrekt sein. Dies gilt außer in besonderen Fällen wie einemy1,y2 0 <yich< n pich yich, n -yich (η1,η2) ( α , β) yich Nehmen Sie einen Wert von 0 oder In diesem Fall ist die normalisierende Beta-Funktion unendlich und der hintere Teil von (und damit der hintere Teil von und ) unpassend.n B (yich, n -yich) pich α β
Für Beobachtungen muss auch der Posterior geeignet sein, da die nicht normalisierte posteriore Dichte von basierend auf den ersten Beobachtungen durch den Posterior begrenzt wird .k > 2 α , β k = 2
quelle
Es ist unangemessen, glaube ich. Ich muss nur beweisen, dass Funktion bezeichnen Nun, da eine monoton ansteigende Funktion ist, haben wir bei∫α∈Rβ>0p(y∣α,β,x)=+∞. σ=invlogit σ β>0 σ(α+βxi)>σ(α−βmax|xi|)>0, 1−σ(α+βxi)>1−σ(α+βmax|xi|)>0.
Somit ist das Integral∫α∈Rβ>0p(y∣α,β,x)>>>∫α∈Rβ>0∏[σ(α−βmax|xi|)]yi[1−σ(α+βmax|xi|)]ni−yi∫α∈Rβ>0∏[σ(α−βmax|xi|)]maxni[1−σ(α+βmax|xi|)]maxni∫α∈Rβ>0[σ(α−βmax|xi|)]kmaxni[1−σ(α+βmax|xi|)]kmaxni
Weitere Eigenschaften zu werden benötigt:σ (σ(x))N=1(1+e−x)N>12N(max{1,e−x})N=12N(max{1,e−Nx})>12Nσ(Nx)
Sei, , dannξ=α−βmax|xi| η=α+βmax|xi|,N=kmaxni ∫α∈Rβ>0p(y∣α,β,x)>∝>=∫α∈Rβ>0[σ(α−βmax|xi|)]N[1−σ(α+βmax|xi|)]N∫−∞<ξ<η<+∞[σ(ξ)]N[σ(−η)]N122N∫ξ+∞(∫−∞+∞σ(Nξ)dξ) σ(−Nη)dη+∞
quelle
Ich habe bereits eine Antwort akzeptiert, wollte aber darauf hinweisen, dass der Posterior nicht für alle möglichen Datensätze geeignet ist. Der hintere Teil ist proportional zur Wahrscheinlichkeit, die Wenn , dann vereinfacht sich dies zu∏i=1k[invlogit(α+βxi)]yi[1−invlogit(α+βxi)]n−yi. y1=y2=⋯=yk=n ∏i=1k[invlogit(α+βxi)]n,
und wir können sehen, dass∫∞−∞∫∞−∞∏i=1k[invlogit(α+βxi)]ndαdβ≥∫∞0∫∞−∞∏i=1k[invlogit(α+βxi)]ndαdβ≥∫∞0∫∞−∞[invlogit(α+βx(1))]nkdαdβ≥∫∞0∫∞−∞[invlogit(r1)]nkdr1dr2=∞.
quelle