Ich führe einige Regressionen durch und habe mich, da ich auf der sicheren Seite sein wollte, entschlossen, durchgehend HAC-Standardfehler (Heteroskedasticity & Autocorrelation Consistent) zu verwenden. Es kann einige Fälle geben, in denen keine serielle Korrelation vorliegt. Ist das sowieso ein gültiger Ansatz? Gibt es irgendwelche Nachteile?
time-series
least-squares
standard-error
robust
robust-standard-error
Juliett Bravo
quelle
quelle
Antworten:
Bei der Schätzung von Standardfehlern:
Wenn Sie über genügend Daten verfügen, sollten Sie absolut sicher sein, da der Schätzer konsistent ist!
Wie Woolridge jedoch in seinem Buch Introductory Econometrics (S. 247, 6. Ausgabe) hervorhebt, kann ein großer Nachteil aus kleinen Stichprobenproblemen resultieren, dass Sie möglicherweise eine Annahme (dh keine serielle Korrelation von Fehlern) effektiv fallen lassen, aber eine andere Annahme hinzufügen , die Sie haben genug Daten für den zentralen Grenzwertsatz! HAC etc ... stützen sich auf asymptotische Argumente.
Wenn Sie zu wenig Daten haben, um sich auf asymptotische Ergebnisse zu verlassen:
Sehen Sie diese Antwort hier auf eine verwandte Frage: https://stats.stackexchange.com/a/5626/97925
quelle
In der Tat sollte es bei endlichen Proben zu einem gewissen Effizienzverlust kommen, aber asymptotisch sind Sie auf der sicheren Seite. Betrachten Sie dazu den einfachen Fall der Schätzung eines Stichprobenmittelwerts (ein Sonderfall einer Regression, bei der Sie nur auf eine Konstante zurückgehen):
HAC-Schätzer schätzen den Standardfehler des Stichprobenmittelwerts. Angenommen, ist eine stationäre Kovarianz mit und so dass .Yt E(Yt)=μ Cov(Yt,Yt−j)=γj ∑∞j=0|γj|<∞
Was dann die HAC-Standardfehlerschätzung ist, ist die Quadratwurzel der "langfristigen Varianz", gegeben durch: Wenn die Reihe tatsächlich keine serielle Korrelation hat, dann ist für , was der HAC-Schätzer auch als "entdeckt" , so dass es sich um einen Schätzer der Quadratwurzel handelt der Standardvarianz .
quelle