(Ein ziemlich langer Beitrag, sorry. Er enthält viele Hintergrundinformationen. Sie können also gerne zur Frage unten springen.)
Intro: Ich arbeite an einem Projekt, in dem wir versuchen, die Auswirkung einer binären endogenen Variablen auf ein kontinuierliches Ergebnis zu identifizieren . Wir haben uns ein Instrument , , von dem wir fest überzeugt sind, dass es zufällig zugewiesen wird. y z 1
Daten: Die Daten selbst befinden sich in einer Panelstruktur mit ungefähr 34.000 Beobachtungen, verteilt auf 1000 Einheiten und ungefähr 56 Zeiträumen. nimmt für ungefähr 700 (2%) der Beobachtungen einen Wert von 1 an, und tut dies für ungefähr 3000 (9%). 111 (0,33%) Beobachtungen erzielen sowohl auf als auch auf eine 1 , und es ist doppelt so wahrscheinlich, dass eine Beobachtung eine 1 auf erzielt, wenn sie auch auf eine 1 erzielt .z 1 z 1 x 1 x 1 z 1
Schätzung: Wir schätzen das folgende 2SLS-Modell durch das ivreg2-Verfahren von Stata:
y = β 0 + β 1 x ∗ 1 + Z β + u
Wenn ein Vektor anderer exogener Variablen ist, ist der vorhergesagte Wert von aus der ersten Stufe, und und sind Fehlerterme.x ∗ 1 x 1 u v
Ergebnisse: Alles scheint gut zu funktionieren; Die Schätzung von ist in der ersten Stufe hoch signifikant und die Schätzung von \ beta_1 ist in der zweiten Stufe hoch signifikant. Alle Zeichen sind wie erwartet, einschließlich der für die anderen exogenen Variablen. Das Problem ist jedoch, dass die Schätzung von \ beta_1 - dem interessierenden Koeffizienten - unplausibel groß ist (oder zumindest so, wie wir es interpretiert haben).
reicht von ungefähr 2 bis ungefähr 26 mit einem Mittelwert und einem Median von 17, aber die Schätzung von reicht von 30 bis 40 (abhängig von der Spezifikation)!
Schwach IV: Unser erster Gedanke war, dass dies daran lag, dass das Instrument zu schwach war; das heißt, nicht sehr stark mit der endogenen Variablen korreliert, aber dies scheint nicht wirklich der Fall zu sein. Um die Schwäche des Instruments zu untersuchen, verwenden wir das Schwachstellenpaket von Finlay, Magnusson und Schaffer, da es Tests bietet, die gegenüber Verstößen gegen die Annahme robust sind (was hier relevant ist, da wir Paneldaten haben und unsere gruppieren die Einheitenebene).
Gemäß ihrem AR-Test liegt die Untergrenze des 95% -Konfidenzintervalls für den Koeffizienten der zweiten Stufe zwischen 16 und 29 (wiederum abhängig von der Spezifikation). Die Ablehnungswahrscheinlichkeit beträgt praktisch 1 für alle Werte nahe Null.
Einflussreiche Beobachtungen: Wir haben versucht, das Modell zu schätzen, wobei jede Einheit einzeln entfernt, jede Beobachtung einzeln entfernt und Gruppen von Einheiten entfernt wurden. Keine wirkliche Veränderung.
Vorgeschlagene Lösung: Jemand schlug vor, den geschätzten Effekt des instrumentierten in seiner ursprünglichen Metrik (0-1), sondern in der Metrik seiner vorhergesagten Version zusammenzufassen. reicht von -0,01 bis 0,1 mit einem Mittelwert und Median von ungefähr 0,02 und einer SD von ungefähr 0,018. Wenn wir den geschätzten Effekt von durch einen Anstieg von eine SD zusammenfassen würden, wäre dies (andere Spezifikationen liefern nahezu identische Ergebnisse). Dies wäre weitaus vernünftiger (und dennoch substanziell). Scheint die perfekte Lösung zu sein. Außer ich habe noch nie jemanden gesehen, der das getan hat; Jeder scheint nur den Koeffizienten der zweiten Stufe unter Verwendung der Metrik der ursprünglichen endogenen Variablen zu interpretieren.
Frage: Ist es in einem IV-Modell richtig, den geschätzten Effekt (den LATE, wirklich) eines Anstiegs der endogenen Variablen unter Verwendung der Metrik der vorhergesagten Version davon zusammenzufassen? In unserem Fall ist diese Metrik eine vorhergesagte Wahrscheinlichkeit.
Hinweis: Wir verwenden 2SLS, obwohl wir eine binäre endogene Variable haben (wodurch die erste Stufe zu einem LPM wird). Dies folgt Angrist & Krueger (2001): „Instrumentelle Variablen und die Suche nach Identifikation: Von Angebot und Nachfrage zu natürlichen Experimenten“) Wir haben auch das dreistufige Verfahren ausprobiert, das in Adams, Almeida & Ferreira (2009) verwendet wird: „ Verständnis der Beziehung zwischen Gründer-CEOs und Unternehmensleistung “. Der letztere Ansatz, der aus einem Probit-Modell gefolgt von 2SLS besteht, liefert kleinere und vernünftigere Koeffizienten, aber sie sind immer noch sehr groß, wenn sie in der 0-1-Metrik (etwa 9-10) interpretiert werden. Mit manuellen Berechnungen erhalten wir die gleichen Ergebnisse wie mit der probit-2sls-Option in Cerullis ivtreatreg.
etregress/treatreg
?Antworten:
Dies ist eine alte Frage, aber für alle , die über sie in der Zukunft stolpern, intuitiv die 2SLS Schätzung von heißt von der „reduzierten Form“ Regressionβ1 α1
geteilt durch von der Regression der "ersten Stufe"π1
Wenn also die 2SLS-Schätzungen von "unplausibel groß" sind, überprüfen Sie die OLS-Schätzungen von und .β1 α1 π1
Wenn die Schätzungen "vernünftig" sind, könnte das Problem darin bestehen, dass die Schätzungen "sehr klein" sind. Das Teilen von durch einen "sehr kleinen" kann einen "unplausibel großen" erzeugen .α1 π1 α 1 π 1 β 1α^1 π^1 β^1
quelle