Pearson VS Deviance Residuen in der logistischen Regression

16

Ich weiß, dass standardisierte Pearson-Residuen auf traditionelle probabilistische Weise erhalten werden:

ri=yiπiπi(1πi)

und Abweichungsreste werden auf statistischere Weise erhalten (der Beitrag jedes Punktes zur Wahrscheinlichkeit):

di=si2[yilogπi^+(1yi)log(1πi)]

Dabei ist = 1, wenn = 1 und = -1, wenn = 0.y i s i y isiyisiyi

Können Sie mir intuitiv erklären, wie die Formel für Abweichungsreste zu interpretieren ist?

Außerdem, wenn ich eine auswählen möchte, welche ist besser geeignet und warum?

Übrigens behaupten einige Referenzen, dass wir die Abweichungsreste basierend auf dem Begriff ableiten

12ri2

wo ist oben erwähnt.ri

Jack Shi
quelle
Alle mögliche Gedanken würden geschätzt
Jack Shi
1
Wenn Sie "einige Referenzen" sagen ... welche Referenzen und wie machen sie das?
Glen_b

Antworten:

10

Die logistische Regression versucht, die Log-Likelihood-Funktion zu maximieren

LL=kln(Pi)+rln(1Pi)

wobei die vorhergesagte Wahrscheinlichkeit ist, dass der Fall i ; ist die Anzahl der Fälle, die als und ist die Anzahl der (übrigen) Fälle, die als .PiY^=1kY=1rY=0

Dieser Ausdruck ist gleich

LL=(kdi2+rdi2)/2

weil der Abweichungsrest eines Falls wie folgt definiert ist:

di={2ln(Pi)if Yi=12ln(1Pi)if Yi=0

Die binäre logistische Regression versucht daher direkt, die Summe der quadratischen Abweichungsreste zu minimieren. Es sind die Abweichungsreste, die im ML-Algorithmus der Regression impliziert sind.

Die Chi-Quadrat-Statistik der Modellanpassung ist , wobei das Prädiktoren enthält und das reduzierte Modell keine enthält.2(LLfull modelLLreduced model)

ttnphns
quelle