Verzerrung der Maximum-Likelihood-Schätzer für die logistische Regression

10

Ich möchte einige Fakten zu Maximum Likelihood Estimators (MLEs) für logistische Regressionen verstehen.

  1. Stimmt es, dass die MLE für die logistische Regression im Allgemeinen voreingenommen ist? Ich würde Ja sagen". Ich weiß zum Beispiel, dass die Probendimension mit der asymptotischen Verzerrung von MLEs zusammenhängt.

    Kennen Sie elementare Beispiele für dieses Phänomen?

  2. Wenn der MLE voreingenommen ist, ist es wahr, dass die Kovarianzmatrix der MLEs das Inverse des Hessischen der Maximum-Likelihood-Funktion ist?

    edit : Ich habe diese Formel ziemlich oft und ohne Beweise getroffen; es scheint mir eine ziemlich willkürliche Wahl zu sein.

Avitus
quelle

Antworten:

15

T

Pr(Yi=1Ti=1)=Λ(α+βTi)
ΛΛ(u)=[1+exp{u}]1

ln(Pr(Yi=1Ti=1)1Pr(Yi=1Ti=1))=α+βTi

nn1Ti=1n0Ti=0n1+n0=n

Pr^(Y=1T=1)P^1|1=1n1Ti=1yi

Pr^(Y=1T=0)P^1|0=1n0Ti=0yi

Dann bietet dieses sehr grundlegende Modell geschlossene Lösungen für den ML-Schätzer:

α^=ln(P^1|01P^1|0),β^=ln(P^1|11P^1|1)ln(P^1|01P^1|0)

VORSPANNEN

P^1|1P^1|0

lim

limnE[α^]=E[ln(limnP^1|01P^1|0)]=E[ln(P1|01P1|0)]=α

β


θ0=(α,β)

n(θ^θ0)dN(0,(E[H])1)

H

Var(θ^)1n(E[H])11n(1nH^)1=H^1
Alecos Papadopoulos
quelle