Eigenschaften logistischer Regressionen

17

Wir arbeiten mit einigen logistischen Regressionen und haben festgestellt, dass die durchschnittliche geschätzte Wahrscheinlichkeit immer dem Anteil derjenigen in der Stichprobe entspricht. Das heißt, der Durchschnitt der angepassten Werte entspricht dem Durchschnitt der Stichprobe.

Kann mir jemand den Grund erklären oder eine Referenz geben, wo ich diese Demonstration finden kann?

Gabi Foix
quelle
2
Der Grund dafür ist, dass die logistische Regression versucht, genau das zu erreichen: Modellierung der Datenverteilung, einschließlich der vorherigen Wahrscheinlichkeiten ("Durchschnitte"). Ist dieses Verhalten unerwünscht?
Bayerj
1
@bayer Die Nichtlinearität der Verknüpfungsfunktion zeigt an, dass dieses Phänomen tiefer liegt als Ihre Charakterisierung. Hier gibt es wirklich etwas zu demonstrieren.
Whuber
Diese Eigenschaft wird manchmal als "Calibration-in-the-Large" bezeichnet, wenn die logistische Regression zur Abschätzung des Risikos verwendet wird.
26.

Antworten:

26

Das Verhalten, das Sie beobachten, ist der "typische" Fall bei der logistischen Regression, aber nicht immer wahr. Es gilt auch in viel allgemeinerer Form (siehe unten). Es ist die Folge des Zusammentreffens von drei verschiedenen Tatsachen.

  1. Die Wahl der Modellierung der Log-Odds als lineare Funktion der Prädiktoren,
  2. Die Verwendung der maximalen Wahrscheinlichkeit, um Schätzungen der Koeffizienten im logistischen Regressionsmodell zu erhalten, und
  3. Die Einbeziehung eines Intercept-Terms in das Modell.

Wenn eine der oben genannten Aussagen nicht vorliegt, stimmen die geschätzten Durchschnittswahrscheinlichkeiten im Allgemeinen nicht mit dem Anteil derjenigen in der Stichprobe überein.

(Fast) jede statistische Software verwendet jedoch eine Maximum-Likelihood-Schätzung für solche Modelle, sodass in der Praxis die Elemente 1 und 2 im Wesentlichen immer vorhanden sind und Element 3 normalerweise vorhanden ist, außer in besonderen Fällen.

Ein paar Details

Im typischen logistischen Regressionsgerüst beobachten wir das Ergebnis unabhängiger Binomialversuche mit der Wahrscheinlichkeit . Lassen Sie y i die beobachteten Reaktionen sein. Dann ist die Gesamtwahrscheinlichkeit L = n Π i = 1 p y i i ( 1 - p i ) 1 - y i = n Π i = 1 exp ( y i log ( P i / ( 1 - P ipiyi Und so die Log-Likelihood ist = n Σ i = 1 y i log ( P i / ( 1 - p i ) ) + n Σ i = 1 log ( 1 - P i )

L=i=1npiyi(1pi)1yi=i=1nexp(yilog(pi/(1pi))+log(1pi)),
=i=1nyilog(pi/(1pi))+i=1nlog(1pi).

Wir haben nun einen Vektor von Prädiktoren für jede Beobachtung und aus dem obigen Fakt 1 geht das logistische Regressionsmodell für einige Unbekannte von aus Vektor der Parameter . Hinweis : Wenn Sie dies neu ordnen, erhalten Sie .xiβ p i = 1 / ( 1 + e - β T x i )

logpi1pi=βTxi,
βpi=1/(1+eβTxi)

Wenn die maximale Wahrscheinlichkeit für die Anpassung an das Modell (Fakt 2) verwendet wird, ergibt sich ein Satz zu lösender Gleichungen aus der Berücksichtigung von . Beachten Sie, dass /β=0

β=iyixiixi1+exp(βTxi)=iyixiipixi,
ichyichxich=ichp^ichxich,
p^ich=(1+exp(-β^Txich))-1

xichjichichyichxichj=ichyich=ichp^ich

Eine Simulation

R

x <- rnorm(100)
p <- 1/(1+exp(-3*x))
y <- runif(100) <= p
mean(y)
# Should be identical to mean(y)
mean( predict( glm(y~x, family="binomial"), type="response" ) )
# Won't be identical (usually) to mean(y)
mean( predict( glm(y~x+0, family="binomial"), type="response") )

Allgemeiner Fall : Wie oben erwähnt, ist die Eigenschaft, dass die mittlere Antwort gleich dem vorhergesagten Durchschnittswert ist, für die Klasse verallgemeinerter linearer Modelle, die mit maximaler Wahrscheinlichkeit unter Verwendung der kanonischen Verknüpfungsfunktion und unter Einbeziehung eines Abschnitts in die Gleichung passen, viel allgemeiner Modell.

Verweise

Einige gute Referenzen für die zugehörige Theorie sind die folgenden.

  1. A. Agresti (2002), Categorical Data Analysis , 2. Aufl., Wiley.
  2. P. McCullagh und JA Nelder (1989), Generalized Linear Models , 2. Aufl., Chapman & Hall. (Text von Originalautoren der allgemeinen Methoden.)
Kardinal
quelle
4
+1 Diese Demonstration (spezifisch für das logistische Regressionsmodell, ohne zu versuchen, auf alle GLMs zu verallgemeinern) wird auch in Maddala (1983), Limited Dependent and Qualitative Variables in Econometrics , S. 25-26, gegeben.
StasK
@StasK: Danke für den zusätzlichen Hinweis, den ich nicht kenne. Prost.
Kardinal
@ Cardinal: Ich erinnere mich nicht, dass Agresti darüber gesprochen hat. Wird es in McCullagh und Nelder diskutiert?
26.