Was ist der Unterschied zwischen der logistischen Regression und der Regression nach Fractional Response?

13

Soweit ich weiß, besteht der Unterschied zwischen dem logistischen Modell und dem Teilantwortmodell (frm) darin, dass die abhängige Variable (Y), in der frm [0,1] ist, logistisch jedoch {0, 1} ist. Ferner verwendet frm den Quasi-Likelihood-Schätzer, um seine Parameter zu bestimmen.

Normalerweise können wir verwenden glm, um die logistischen Modelle von zu erhalten glm(y ~ x1+x2, data = dat, family = binomial(logit)).

Für frm wechseln wir family = binomial(logit)zu family = quasibinomial(logit).

Mir ist aufgefallen, dass wir auch family = binomial(logit)den Parameter frm ermitteln können, da er dieselben geschätzten Werte liefert. Siehe folgendes Beispiel

library(foreign)
mydata <- read.dta("k401.dta")


glm.bin <- glm(prate ~ mrate + age + sole + totemp, data = mydata
,family = binomial('logit'))
summary(glm.bin)

Rückkehr,

Call:
glm(formula = prate ~ mrate + age + sole + totemp, family = binomial("logit"), 
    data = mydata)

Deviance Residuals: 
    Min       1Q   Median       3Q      Max  
-3.1214  -0.1979   0.2059   0.4486   0.9146  

Coefficients:
              Estimate Std. Error z value Pr(>|z|)    
(Intercept)  1.074e+00  8.869e-02  12.110  < 2e-16 ***
mrate        5.734e-01  9.011e-02   6.364 1.97e-10 ***
age          3.089e-02  5.832e-03   5.297 1.17e-07 ***
sole         3.636e-01  9.491e-02   3.831 0.000128 ***
totemp      -5.780e-06  2.207e-06  -2.619 0.008814 ** 
---
Signif. codes:  0 ‘***’ 0.001 ‘**’ 0.01 ‘*’ 0.05 ‘.’ 0.1   1

(Dispersion parameter for binomial family taken to be 1)

    Null deviance: 1166.6  on 4733  degrees of freedom
Residual deviance: 1023.7  on 4729  degrees of freedom
AIC: 1997.6

Number of Fisher Scoring iterations: 6

Und für family = quasibinomial('logit'),

glm.quasi <- glm(prate ~ mrate + age + sole + totemp, data = mydata
,family = quasibinomial('logit'))
summary(glm.quasi)

Rückkehr,

Call:
glm(formula = prate ~ mrate + age + sole + totemp, family = quasibinomial("logit"), 
    data = mydata)

Deviance Residuals: 
    Min       1Q   Median       3Q      Max  
-3.1214  -0.1979   0.2059   0.4486   0.9146  

Coefficients:
              Estimate Std. Error t value Pr(>|t|)    
(Intercept)  1.074e+00  4.788e-02  22.435  < 2e-16 ***
mrate        5.734e-01  4.864e-02  11.789  < 2e-16 ***
age          3.089e-02  3.148e-03   9.814  < 2e-16 ***
sole         3.636e-01  5.123e-02   7.097 1.46e-12 ***
totemp      -5.780e-06  1.191e-06  -4.852 1.26e-06 ***
---
Signif. codes:  0 ‘***’ 0.001 ‘**’ 0.01 ‘*’ 0.05 ‘.’ 0.1   1

(Dispersion parameter for quasibinomial family taken to be 0.2913876)

    Null deviance: 1166.6  on 4733  degrees of freedom
Residual deviance: 1023.7  on 4729  degrees of freedom
AIC: NA

Number of Fisher Scoring iterations: 6

Das geschätzte Beta von beiden familyist das gleiche, aber der Unterschied sind die SE-Werte. Um jedoch die korrekte SE zu erhalten, müssen wir library(sandwich)wie in diesem Beitrag verwenden .

Nun meine Fragen:

  1. Was ist der Unterschied zwischen diesen beiden Codes?
  2. Ist frm kurz davor, robuste SE zu erhalten?

Wenn mein Verständnis nicht korrekt ist, geben Sie bitte einige Vorschläge.

Neuling
quelle

Antworten:

11

Wenn Ihre Frage lautet: Was ist der Unterschied zwischen diesen beiden Codes?

Ein Blick auf ?glmsagt See family for details of family functionsund ein Blick auf ?familyzeigt die folgende Beschreibung:

Die Quasibinomial- und Quasipoisson-Familien unterscheiden sich von den Binomial- und Poisson-Familien nur dadurch, dass der Dispersionsparameter nicht auf eins festgelegt ist, sodass sie eine Überdispersion modellieren können.

Dies sehen Sie auch in Ihrer Ausgabe. Und das ist der Unterschied zwischen beiden Modellen / Codes.

Wenn Ihre Frage lautet: Was ist der Unterschied zwischen der logistischen Regression und der partiellen Antwortregression?

Wie Sie richtig erkennen, handelt es sich bei dem Modell um ein logistisches Modell, wenn Ihre abhängigen Variablen entweder 0 oder 1 sind. Papke und Wooldridge haben gezeigt, dass Sie eine GLM dieses Formulars auch für Brüche zur Schätzung der Parameter verwenden können, dies ist jedoch erforderlich robuste Standardfehler berechnen. Dies ist für die logistische Regression nicht erforderlich, und in der Tat denken einige Leute, Sie sollten keine robusten Standardfehler in Probit / Logit-Modellen berechnen. Dies ist jedoch eine andere Debatte.

Die theoretische Grundlage stammt aus einem berühmten Artikel von Gourieroux, Monfort und TrognonSie zeigen, dass (unter bestimmten Regularitätsbedingungen usw.) Maximalwahrscheinlichkeitsparameter, die durch Maximieren einer Wahrscheinlichkeit erhalten werden, die zur linearen Exponentialfamilie gehört, konsistente Schätzungen für Parameter sind, die zu einer anderen Wahrscheinlichkeit in der linearen Exponentialfamilie gehören. In gewisser Weise verwenden wir hier also die logistische Verteilung, auch wenn sie nicht genau die richtige ist, aber die Parameter für die Parameter, die wir erhalten möchten, immer noch konsistent sind. Wenn Ihre Frage aus der Beobachtung stammt, dass wir die gleiche Wahrscheinlichkeitsfunktion verwenden, um sowohl logistische als auch gebrochene Antwortmodelle zu schätzen, mit der Ausnahme, dass wir die Natur der abhängigen Variablen austauschen, dann ist dies die Intuition.

coffeinjunky
quelle
Wie können wir die Leistung messen? Können wir MSE wie eine lineare Regression verwenden?
Neuling
1
Das ist eine ganz andere Frage. Bitte poste es als neues.
Coffeinjunky