Fisher-Informationsmatrix-Determinante für ein überparametrisiertes Modell

10

Betrachten Sie eine Bernoulli-Zufallsvariable X{0,1} mit dem Parameter θ (Erfolgswahrscheinlichkeit). Die Wahrscheinlichkeitsfunktion und die Fisher-Information (eine 1×1 Matrix) sind:

L1(θ;X)=p(X|θ)=θX(1θ)1XI1(θ)=detI1(θ)=1θ(1θ)

Betrachten Sie nun eine " " Version mit zwei Parametern: der Erfolgswahrscheinlichkeit und der Ausfallwahrscheinlichkeit . (Beachten Sie, dass ist und diese Einschränkung impliziert, dass einer der Parameter redundant ist.) In diesem Fall sind die Wahrscheinlichkeitsfunktion und die Fisher-Informationsmatrix (FIM):θ1θ0θ1+θ0=1

L2(θ1,θ0;X)=p(X|θ1,θ0)=θ1Xθ01XI2(θ1,θ0)=(1θ1001θ0)detI2(θ)=1θ1θ0=1θ1(1θ1)

Beachten Sie, dass die Determinanten dieser beiden FIMs identisch sind. Darüber hinaus erstreckt sich diese Eigenschaft auf den allgemeineren Fall kategorialer Modelle (dh mehr als zwei Zustände). Es scheint sich auch auf logarithmisch lineare Modelle mit verschiedenen Teilmengen von Parametern zu erstrecken, die auf Null beschränkt sind. In diesem Fall entspricht der zusätzliche "redundante" Parameter der Protokollpartitionsfunktion, und die Äquivalenz der beiden FIM-Determinanten kann basierend auf dem Schur-Komplement der größeren FIM gezeigt werden. (Bei logarithmisch linearen Modellen ist die kleinere FIM nur das Schur-Komplement der größeren FIM.)

Kann jemand erklären, ob sich diese Eigenschaft auf einen größeren Satz parametrischer Modelle erstreckt (z. B. auf alle Exponentialfamilien) und die Möglichkeit bietet, die FIM-Determinanten basierend auf einem solchen "erweiterten" Satz von Parametern abzuleiten? Das heißt, es wird jedes gegebene statistische Modell mit Parametern angenommen, die auf einer dimensionalen Mannigfaltigkeit liegen, die in einen -dimensionalen Raum eingebettet ist. Wenn wir nun den Parametersatz um eine weitere Dimension erweitern (die basierend auf den anderen vollständig eingeschränkt ist) und die FIM-basierten Parameter berechnen , erhalten wir immer dieselbe Determinante wie die auf dem Original basierende (unabhängige) Parameter? Wie hängen diese beiden FIMs zusammen?n ( n + 1 ) ( n + 1 ) nnn(n+1)(n+1)n

Der Grund, warum ich diese Frage stelle, ist, dass die FIM mit dem zusätzlichen Parameter oft einfacher erscheint. Mein erster Gedanke ist, dass dies im Allgemeinen nicht funktionieren sollte. Die FIM beinhaltet die Berechnung partieller Ableitungen der Log-Wahrscheinlichkeit für jeden Parameter. Diese partiellen Ableitungen gehen davon aus, dass, während sich der betreffende Parameter ändert, alle anderen Parameter konstant bleiben, was nicht wahr ist, wenn wir den zusätzlichen (eingeschränkten) Parameter einbeziehen. In diesem Fall scheinen mir die partiellen Ableitungen nicht mehr gültig zu sein, da wir nicht davon ausgehen können, dass die anderen Parameter konstant sind. Ich habe jedoch noch keine Beweise dafür gefunden, dass dies tatsächlich ein Problem ist. (Wenn partielle Ableitungen in Fällen mit abhängigen Parametern problematisch sind, handelt es sich um Gesamtableitungen(n+1)×(n+1)stattdessen benötigt? Ich habe noch kein Beispiel für die Berechnung der FIM mit Gesamtableitungen gesehen, aber vielleicht ist das die Lösung ...)

Das einzige Beispiel, das ich online finden konnte, um die FIM basierend auf einem solchen "erweiterten" Parametersatz zu berechnen, ist das folgende: Diese Hinweise enthalten ein Beispiel für die kategoriale Verteilung, wobei die erforderlichen partiellen Ableitungen wie üblich berechnet werden (dh als ob jeder Parameter unabhängig wäre , obwohl eine Einschränkung zwischen den Parametern vorhanden ist).

Tyler Streeter
quelle
1
Gute Frage! Ich denke, die Zwei-Parameter-Spezifikation der Bernoulli-Zufallsvariablen ist ein ziemlich unglückliches Beispiel, da ohne die Einschränkung ist nicht länger an Dichte gebunden. Können Sie Ihre Beobachtung zum Beispiel für eine gekrümmte Exponentialfamilie reproduzieren? p(X|θ1,θ0)=θ1Xθ01X
Khashaa
@Khashaa Ich gehe davon aus, dass die Einschränkung im Zwei-Parameter-Fall (dem von Ihnen erwähnten) gilt, sodass die Wahrscheinlichkeitsfunktion weiterhin eine gültige Dichte ist. Ja, ich kann diese Beobachtung auch reproduzieren, z. B. für logarithmisch lineare Modelle mit verschiedenen Teilmengen von Parametern, die auf Null beschränkt sind. In diesem Fall entspricht der Parameter "redundant" der Protokollpartitionsfunktion. θ1+θ2=1
Tyler Streeter
1
Wie wäre es mit ? N(μ,μ2)
Khashaa

Antworten:

4

Für normales lautet die Informationsmatrix Für gekrümmtes normalesIhre Beobachtung, dass Determinanten gleich sind, ist also nicht universell, aber das ist nicht die ganze Geschichte.I 1 = ( 1XN(μ,σ2)XN(μ,μ2)I2=3

I1=(1σ20012σ4)
XN(μ,μ2)
I2=3μ2.

Wenn die Informationsmatrix unter der Reparametrisierung , ist es im Allgemeinen nicht schwierig, dies zu erkennen Die Informationsmatrix für die ursprünglichen Parameter ist wobei der Jacobi der Transformation . g(θ)=( g 1 (θ),..., G k (θ) ) ' ,I(θ)= G ' I g (g(θ))GGg=g(θ)Ig

g(θ)=(g1(θ),...,gk(θ)),
I(θ)=GIg(g(θ))G
Gg=g(θ)

Für Bernoulli-Beispiel und . Der Jacobi ist also und somit (θ0,θ1)=(p,1p)g(p)=(p,1p)(1,1)

I(p)=(11)(1p0011p)(11)=1p(1p)

Für ein gekrümmtes normales Beispiel ist

I2=(12μ)(1μ20012μ4)(12μ)=3μ2.

Ich denke, jetzt können Sie die Determinanten leicht in Beziehung setzen.

Follow-up nach dem Kommentar

Wenn ich Sie richtig verstanden habe, ist die FIM gültig, solange Sie die Parameter sinnvoll erweitern: Die Wahrscheinlichkeit einer neuen Parametrisierung sollte eine gültige Dichte sein. Daher habe ich das Bernoulli-Beispiel als unglücklich bezeichnet.

Ich denke, der von Ihnen bereitgestellte Link weist einen schwerwiegenden Fehler bei der Ableitung der FIM für kategoriale Variablen auf, da wir und . Die Erwartung des negativen Hessischen ergibt , jedoch nicht für die Kovarianz der Score-Vektoren. Wenn Sie die Einschränkungen vernachlässigen, gilt die Informationsmatrix-Gleichheit nicht. E(xi2)=θi(1θi)θiE(xixj)=θiθj0diag{1/θi}

Khashaa
quelle
Vielen Dank für die Erwähnung des jakobianischen Transformationsansatzes und für die einfachen, klaren Beispiele. Können Sie (oder jemand anderes) das folgende Problem kommentieren, das mich noch betrifft: Wenn Sie den Parametersatz wie hier um eine Dimension erweitern, führen wir eine Einschränkung zwischen den Parametern ein, sodass alle partiellen Ableitungen (wie von erforderlich) Die FIM) sollte ungültig sein, da jetzt, wenn wir einen Parameter variieren, die anderen nicht mehr konstant sind. Ist die FIM also überhaupt für den erweiterten Parametersatz gültig, da die partiellen Ableitungen aufgrund der zusätzlichen Einschränkung ungültig sind?
Tyler Streeter
@ TylerStreeter Ich habe meine Antwort aktualisiert, um Ihr Problem zu beheben.
Khashaa
3

Es scheint, dass das Ergebnis für eine bestimmte Art von Beziehung zwischen den Parametern gilt.

Ohne die volle Allgemeinheit für die folgenden Ergebnisse zu beanspruchen, halte ich mich an den Fall "ein bis zwei Parameter". Bezeichne die implizite Gleichung, die die Beziehung ausdrückt, die zwischen den beiden Parametern bestehen muss. Dann die "korrekte erweiterte", "Zwei-Parameter" -Protokollwahrscheinlichkeit (nicht das, was das OP berechnet - wir werden dort ankommen)g(θ0,θ1)=0

Le=L(θ0,θ1)+λg(θ0,θ1)
entspricht der wahren Wahrscheinlichkeit , da , ( ist a Multiplikator) und wir können die beiden Parameter als unabhängig behandeln, während wir unterscheiden.Lg(θ0,θ1)=0λ

Unter Verwendung von Indizes zur Bezeichnung von Ableitungen in Bezug auf Parameter (eine tiefgestellte erste Ableitung, zwei tiefgestellte zweite Ableitung) ist die Determinante des Hessischen der korrekten erweiterten Log-Wahrscheinlichkeit

(1)DH(Le)=[L00+λg00][L11+λg11][L01+λg01]2=DH(L)

Was macht das OP stattdessen?

Er betrachtet die falsche Wahrscheinlichkeit "Ignorieren" der Beziehung zwischen den beiden Parametern und ohne Berücksichtigung der Einschränkung . Er fährt dann mit der Differenzierung fort und erhältL(θ0,θ1)g(θ0,θ1)

(2)DH(L)=L00L11[L01]2

Es ist offensichtlich, dass im Allgemeinen nicht gleich .(2)(1)

Aber wenn , dannG00=G11=G00=0

(1)D.H.(L.e)=L.00L.11- -[L.01]]2=D.H.(L.)=D.H.(L.)

Also , wenn die Beziehung zwischen dem Ist - Parameter und dem redundanten Parameter ist , so dass die zweite partielle Ableitung der impliziten Funktion , dass Links sie sind alle gleich Null ist , dann ist der Ansatz, der grundsätzlich falsch ist, endet „richtig“.

Für den Fall Bernoulli haben wir tatsächlich

G(θ0,θ1)=θ0+θ1- -1G00=G11=G01=0

ADDENDUM
Um auf die @ Khashaa-Frage zu antworten und die Mechanik hier zu zeigen, betrachten wir eine Wahrscheinlichkeit, die mit einem redundanten Parameter angegeben wird, aber auch unter einer Einschränkung, die den redundanten Parameter mit dem wahren verknüpft. Was wir mit Log-Wahrscheinlichkeiten tun, ist, sie zu maximieren - also haben wir hier einen Fall von eingeschränkter Maximierung. Angenommen, eine Stichprobe der Größe ,:n

maxL.n(θ0,θ1)=lnθ0ich=1nxich+(n- -ich=1nxich)lnθ1,s.t.θ1=1- -θ0

Dieses Problem hat einen Langrangean (was ich informell oben als "korrekte erweiterte Wahrscheinlichkeit" bezeichnet habe),

L.e=lnθ0ich=1nxich+(n- -ich=1nxich)lnθ1+λ(θ1- -1+θ0)

Die Bedingungen erster Ordnung für ein Maximum sind

ich=1nxichθ0+λ=0,n- -ich=1nxichθ1+λ0=0

für die wir die Beziehung erhalten

ich=1nxichθ0=n- -ich=1nxichθ1θ1ich=1nxich=(n- -ich=1nxich)θ0

Unter Verwendung der Bedingung, unter der die oben genannten gültig sind, wirθ1=1- -θ0

(1- -θ0)ich=1nxich=(n- -ich=1nxich)θ0

ich=1nxich=nθ0θ^0=1nich=1nxich

wie wir sollten.

Da die Beschränkung in allen Parametern linear ist, sind ihre zweiten Ableitungen außerdem Null. Dies spiegelt sich in der Tatsache wider, dass in den ersten Ableitungen des Lagrange der Multiplikator "allein" steht und eliminiert wird, wenn wir zweite Ableitungen des Lagrange nehmen. Was uns wiederum zu einem Hessischen führt, dessen Determinante der (eindimensionalen) zweiten Ableitung der ursprünglichen Ein-Parameter-Log-Wahrscheinlichkeit entspricht, nachdem auch die Einschränkung auferlegt wurde (was das OP tut). Wenn Sie dann in beiden Fällen das Negativ des erwarteten Werts nehmen, ändert sich diese mathematische Äquivalenz nicht, und wir kommen zu der Beziehung "eindimensionale Fischerinformation = Determinante der zweidimensionalen Fischerinformation". Jetztλvorausgesetzt, dass die Beschränkung in allen Parametern linear ist, erhält das OP das gleiche Ergebnis (auf der Ebene der zweiten Ableitung), ohne die Beschränkung mit einem Multiplikator in die zu maximierende Funktion einzuführen, da auf der Ebene der zweiten Ableitung das Vorhandensein / der Effekt der Einschränkung verschwindet in einem solchen Fall.

All dies hat mit Kalkül zu tun, nicht mit statistischen Konzepten.

Alecos Papadopoulos
quelle
Ich kann deiner Logik nicht folgen. Könnten Sie bitte erklären, warum Lagrange-ähnliches als "korrekt erweiterte", "Zwei-Parameter" -Log-Wahrscheinlichkeit angesehen wird? Auch der Hessische ist mir völlig rätselhaft. Berechnen Sie die beobachtete Informationsmatrix? L.e
Khashaa
@ Khashaa Es ist eine etablierte Terminologie, dass das "Hessische" die Matrix der zweiten Ableitungen einer multivariaten Funktion ist.
Alecos Papadopoulos
Es wäre hilfreich, wenn die Downvoter hier eine Antwort posten würden - da das spezifische Beispiel des OP existiert - und eine Erklärung verlangen.
Alecos Papadopoulos
Entschuldigung, wenn meine Frage unklar war. Meine Frage war, wie Sie das Hessische mit der Informationsmatrix verknüpft haben, da ich keine Erwartung dafür sah und das Ergebnis wie eine beobachtete Informationsmatrix wirkte. Können Sie außerdem erklären, warum die richtige Loglikelihood ist? Ich denke, Sie verwenden eine prinzipielle Methode zur Bewertung der eingeschränkten Wahrscheinlichkeit, aber ich verstehe nicht, wie es funktioniert. L.e
Khashaa
@ Khashaa Ich habe eine Ausstellung am Beispiel des OP hinzugefügt.
Alecos Papadopoulos