Hilfe bei der Taylor-Erweiterung der Log-Likelihood-Funktion

7

Ich habe den folgenden Teil einer Skizze des Beweises, dass der Maximum-Likelihood-Schätzer asymptotisch normal ist, reed:

"Skizze des zweiten Teils des Beweises. Denken Sie daran, dass wir die Wahrscheinlichkeitsgleichung als wobei die Ableitung von in Bezug auf . Sei die Ableitung von in Bezug auf . Nun eine Taylor-Erweiterung um ergibt:

i=0nUi(θ^)=0
Ui(ϕ)logf(Yi;ϕ)ϕUi(ϕ)logf(Yi;ϕ)ϕϕ=θ

i=0nUi(ϕ)i=0nUi(θ)(i=0nUi(θ))(ϕθ)
"

Diese Taylor-Erweiterung macht für mich keinen Sinn. Ich kenne eine Taylor-Erweiterung von bei als: I. Ich kann sehen, dass alle Begriffe außer dem zweiten Begriff aus der Taylor-Erweiterung der Log-Wahrscheinlichkeit ausgeschlossen sind, aber ich erkenne nicht, woher dieser Begriff stammt, da der ursprüngliche Begriff das Subtrahieren von zwei Summierungen beinhaltete.f(x)a

i=0f(n)(a)n!(xa)n
Joogs
quelle
1
Vielleicht wäre es klarer, dies als Definition der Ableitung zu charakterisieren (zusammen mit der Summenformel für Ableitungen). Taylor muss nicht aufgerufen werden.
whuber

Antworten:

7

Sie sollten sich selbst davon überzeugen, dass nur eine andere Möglichkeit ist, die Taylor-Expansion auszudrücken (unter geeigneten Regelmäßigkeitsannahmen).f(x)f(y)f(x)(xy)

Mithilfe der Linearität der Ableitung können Sie sie dann auf die Summe verallgemeinern.

RUser4512
quelle
Ist die Taylor-Erweiterung einer Summe von Funktionen dieselbe wie die Summe der Taylor-Erweiterungen der beiden getrennten Funktionen? Dann könnte ich es sehen.
Joogs
@Joogs Ja, denken Sie daran, dass eine Summe differenzierbarer Funktionen auch differenzierbar ist.
JohnK
Aber ist die Taylor-Erweiterung einer Summe von Funktionen auch die Summe der Taylor-Erweiterungen der beiden Funktionen, wenn eine eine Funktion von x und die andere eine Funktion von y ist?
Joogs
@ Joogs, ja! Sie müssen nur darauf achten, dass Sie nicht zu weit vom Punkt (x, y) entfernt sind
RUser4512
5

Ich denke, Ihr Problem ist nur das Notationsproblem

Beginnen wir von vorne;

Angenommen, sind iid Zufallsvariablen mit der WahrscheinlichkeitsdichtefunktionX1,X2,...,Xnf(x;γ)

Normalerweise verwenden die Leute hier , ich werde es für die spätere Verwendung aufbewahren.θ

Die Wahrscheinlichkeitsfunktion istL(γ;x)=f(x1;γ)f(x2;γ)...f(xn;γ)

Die logarithmische Wahrscheinlichkeitsfunktionl(γ;x)=log[f(x1;γ)f(x2;γ)...f(xn;γ)]=i=1nlogf(xi;γ)

Wie üblich werden wir die logarithmische Wahrscheinlichkeit ableiten und auf Null setzen, dhl(γ;x)=0

oderi=1nlogf(xi;γ)=0

Hier sehen Sie Ui(γ)=logf(xi;γ)

(1)l(γ)=i=1nUi(γ) wir hier , da die Log-Likelihood-Funktion eine Funktion vonxγ

Als nächstes erweitern wir die Funktion in eine Taylor-Reihe der Ordnung zwei an .l(γ)θ

l(γ)=l(θ)+l(θ)1!(γθ)1+l(θ)2!(γθ)2 . Dies ist die Taylor-Erweiterung für .l(γ)

Als nächstes bewerten wir die Gleichung beiϕ

(2)l(ϕ)=l(θ)+l(θ)1!(ϕθ)1+l(θ)2!(ϕθ)2

Hier solltest du sehen, dassl(θ)=i=1nUi(θ)

undl(ϕ)=i=1nUi(ϕ)

undl(ϕ)=i=1nUi(ϕ)

Ref (1)

Wenn wir den dritten abgeleiteten Term in (2) ignorieren, wird Ihre Frage hier beantwortet

Wir erhalten, dassi=1nUi(ϕ)i=1nUi(θ)(i=1nUi(θ))(ϕθ)

Übrigens denke ich, beginne normalerweise mit nicht mit , es ist sowieso nur ein Index.i10

Hören wir hier nicht auf, wir können weiter gehen, um den Satz zu beweisen

Wir wissen, dassl(ϕ)=0

l(θ)+l(θ)1!(ϕθ)1+l(θ)2!(ϕθ)2=0

dh

l(θ)+(ϕθ)[l(θ)+l(θ)2(ϕθ)]=0

Als nächstes ordnen wir die obigen Begriffe neu:

(ϕθ)=l(θ)l(θ)l(θ)2(ϕθ)

Wir multiplizieren für beide Seiten:n

(3)n(ϕθ)=nl(θ)l(θ)l(θ)2(ϕθ)=1nl(θ)l(θ)nl(θ)2n(ϕθ)

(dividieren Sie durch n für Zähler und Nenner gleichzeitig für die linke Seite)

Lassen Sie uns sehen, was der Zähler auf der linken Seite von (3) ist :

1nl(θ)=1ni=1nlogf(xi;θ)θ

Und beachte, dass mit Varianz und

logf(xi;θ)θ
I(θ)
E(logf(xi;θ)θ)=0

von CLT

1nl(θ)1nN(0,nI(θ))=N(0,I(θ))

Als nächstes werden wir sehen, was im Nenner von (3) steht :

l(θ)n=1ni=1n2logf(xi;θ)θPI(θ)
nach dem Gesetz der großen Zahl.

Für den Term im Nenner von (3) können wir seine Konvergenz der Wahrscheinlichkeit gegen Null beweisen.

l(θ)2n(ϕθ)

Lassen Sie uns zum Schluss alles verzerren

n(ϕθ)N(0,I(θ)I(θ)=N(0,1I(θ))

Dies bewies den Satz.

Tiefer Norden
quelle
Warum schreibst du und nicht ? Denn im Wesentlichen lassen Sie alle Bedingungen der Taylor-Expansion nach der 2. Ordnung weg. l(γ)=l(θ)+l(θ)1!(γθ)1+l(θ)2!(γθ)2l(γ)l(θ)+l(θ)1!(γθ)1+l(θ)2!(γθ)2
Joogs
Sie haben Recht, es sind noch Reste übrig. Wenn Leute Taylor Series benutzen, benutzen sie normalerweise nicht but=
Deep North
Sind die restlichen Bedingungen für den Beweis nicht wichtig?
Joogs
Nein, sie sind für den Beweis nicht wichtig. Sogar dieser Teil konvergiert mit der Wahrscheinlichkeit gegen Null. l(θ)2n(ϕθ)
Deep North