Jeffreys Prior für Binomialwahrscheinlichkeit

10

Wenn ich einen Jeffreys prior für einen Binomialwahrscheinlichkeitsparameter impliziert dies die Verwendung einer -Verteilung.θθbeta(1/2,1/2)

Wenn ich auf einen neuen Bezugsrahmen - Transformations dann klar nicht auch als verteiltes Verteilung. φ b e t a ( 1 / 2 , 1 / 2 )ϕ=θ2ϕbeta(1/2,1/2)

Meine Frage ist, inwiefern ist Jeffreys vorher unveränderlich gegenüber Umparametrierungen? Ich glaube, ich verstehe das Thema falsch, um ehrlich zu sein ...

Beste,

Ben

ben18785
quelle
6
Jeffreys 'Prior ist in dem Sinne unveränderlich, dass das Beginnen mit einem Jeffreys Prior für eine Parametrisierung und das Ausführen der entsprechenden Änderung der Variablen identisch ist mit dem Ableiten des Jeffreys Prior direkt für diese neue Parametrisierung. Tatsächlich wäre eine äquivariante Bezeichnung angemessener als eine invariante .
Xi'an
@ ben18785: werfen Sie einen Blick auf stats.stackexchange.com/questions/38962/…
Zen
Siehe auch math.stackexchange.com/questions/210607/… (mehr oder weniger dieselbe Frage, denke ich, aber auf einer anderen Site).
Nathaniel

Antworten:

16

Wir haben , wobei eine monotone Funktion von und die Umkehrung von , so dass . Wir können Jeffreys vorherige Verteilung auf zwei Arten erhalten:ϕ=g(θ)gθhgθ=h(ϕ)pJ(ϕ)

  1. Beginnen Sie mit dem Binomialmodell (1) parametrisiert das Modell mit , um und erhalte Jeffreys vorherige Verteilung für dieses Modell.
    p(y|θ)=(ny)θy(1θ)ny
    ϕ=g(θ)
    p(y|ϕ)=(ny)h(ϕ)y(1h(ϕ))ny
    pJ(ϕ)
  2. Erhalten Sie Jeffreys vorherige Verteilung aus dem ursprünglichen Binomialmodell 1 und wenden Sie die Formel zur Änderung der Variablen an, um die induzierte vorherige Dichte aufpJ(θ)ϕ
    pJ(ϕ)=pJ(h(ϕ))|dhdϕ|.

Für Reparametrisierungen unveränderlich zu sein bedeutet, dass die auf beide Arten abgeleiteten Dichten sein sollten. Jeffreys Prior hat diese Eigenschaft [Referenz: Ein erster Kurs in Bayesianischen statistischen Methoden von P. Hoff .]pJ(ϕ)

Um Ihren Kommentar zu beantworten. Um Jeffreys vorherige Verteilung aus der Wahrscheinlichkeit für das Binomialmodell Wir müssen die Fisher-Informationen berechnen, indem wir den Logarithmus der Wahrscheinlichkeit und die zweite Ableitung von und Fisher-Informationen sind pJ(θ)

p(y|θ)=(ny)θy(1θ)ny
ll
l:=log(p(y|θ))ylog(θ)+(ny)log(1θ)lθ=yθny1θ2lθ2=yθ2ny(1θ)2
I(θ)=E(2lθ2|θ)=nθθ2+nnθ(1θ)2=nθ(1θ)θ1(1θ)1.
Jeffreys Prior für dieses Modell ist das ist .
pJ(θ)=I(θ)θ1/2(1θ)1/2
beta(1/2,1/2)

Marko Lalović
quelle
1
Danke für deine Antwort. Ich fürchte, ich bin ein bisschen langsam. Inwiefern können wir aus einer Wahrscheinlichkeit einen Prior erhalten? Sie sind zwei getrennte Dinge, und das letztere impliziert nicht das erstere ...
ben18785
4
Ich antwortete oben, indem ich aus der Wahrscheinlichkeit für das Binomialmodell das vorherige von Jeffrey erhielt . pJ(θ)
Marko Lalović