Kann mir jemand kurz erklären, warum jede der sechs Annahmen benötigt wird, um den OLS-Schätzer zu berechnen? Ich habe nur über Multikollinearität herausgefunden - wenn es existiert, können wir die (X'X) -Matrix nicht invertieren und wiederum den Gesamtschätzer schätzen. Was ist mit den anderen (z. B. Linearität, mittlere Nullfehler usw.)?
14
Antworten:
Sie können den OLS-Schätzer immer berechnen, außer wenn Sie eine perfekte Multikollinearität haben. In diesem Fall haben Sie eine perfekte mehrlineare Abhängigkeit in Ihrer X-Matrix. Infolgedessen ist die Annahme des vollen Ranges nicht erfüllt und Sie können den OLS-Schätzer aufgrund von Umkehrbarkeitsproblemen nicht berechnen.
Technisch gesehen benötigen Sie die anderen OLS-Annahmen nicht, um den OLS-Schätzer zu berechnen. Nach dem Gauß-Markov-Theorem müssen Sie jedoch die OLS-Annahme (clrm-Annahmen) erfüllen, damit Ihr Schätzer BLAU ist.
Eine ausführliche Diskussion des Gauß-Markov-Theorems und seiner mathematischen Herleitung finden Sie hier:
http://economictheoryblog.com/2015/02/26/markov_theorem/
Wenn Sie einen Überblick über die OLS-Annahme suchen, dh wie viele vorhanden sind, was diese erfordern und was passiert, wenn Sie die einzelne OLS-Annahme verletzen, finden Sie hier möglicherweise eine ausführliche Diskussion:
http://economictheoryblog.com/2015/04/01/ols_assumptions/
Ich hoffe das hilft, Prost!
quelle
Das Folgende basiert auf einfachen Querschnitten, für Zeitreihen und Panels ist es etwas anders.
Nun zu den Implikationen.
Unter 1 - 6 (den klassischen linearen Modellannahmen) ist OLS BLAU (bester linearer unverzerrter Schätzer), am besten im Sinne der niedrigsten Varianz. Es ist auch unter allen linearen Schätzern sowie unter allen Schätzern, die eine Funktion des x verwenden, effizient. Noch wichtiger ist, dass OLS unter 1 - 6 auch der unverzerrte Schätzer für die minimale Varianz ist. Dies bedeutet, dass OLS unter allen unverzerrten Schätzern (nicht nur der linearen) die geringste Varianz aufweist. OLS ist auch konsistent.
Unter 1 - 5 (die Gauß-Markov-Annahmen) ist OLS BLAU und effizient (wie oben beschrieben).
Unter 1 - 4 ist OLS unvoreingenommen und konsistent.
Tatsächlich ist OLS auch unter einer schwächeren Annahme als konsistent, nämlich dass: ( 1 ) E ( u ) = 0 und ( 2 ) C o v ( x j , u ) = 0 . Der Unterschied zu Annahmen 4 besteht darin, dass Sie unter dieser Annahme die funktionale Beziehung nicht perfekt nageln müssen.(4) (1) E(u)=0 (2) Cov(xj,u)=0
quelle
Ein Kommentar in einer anderen Frage ließ Zweifel an der Wichtigkeit der Bedingung aufkommen und argumentierte, dass sie durch die Aufnahme eines konstanten Terms in die Regressionsspezifikation korrigiert werden könne und daher "leicht ignoriert werden könne".E(u∣X)=0
Das ist nicht so. Die Einbeziehung eines konstanten Terms in die Regression absorbiert das möglicherweise von Null verschiedene bedingte Mittel des Fehler-Terms, wenn wir annehmen, dass dieses bedingte Mittel bereits eine Konstante und keine Funktion der Regressoren ist . Dies ist die entscheidende Annahme, die unabhängig davon getroffen werden muss, ob wir einen konstanten Term einschließen oder nicht:
Wenn dies zutrifft, wird der Mittelwert ungleich Null zu einem Ärgernis, das wir einfach durch Einfügen eines konstanten Terms lösen können.
Wenn dies jedoch nicht zutrifft (dh wenn das bedingte Mittel keine Null- oder Nicht-Null- Konstante ist ), löst die Einbeziehung des konstanten Terms das Problem nicht: Was es in diesem Fall "absorbiert", ist eine Größe das hängt von der spezifischen Stichprobe und den Erkenntnissen der Regressoren ab. In der Realität ist der unbekannte Koeffizient, der an die Reihe von Einsen gebunden ist, nicht wirklich eine Konstante, sondern eine Variable, die von den Regressoren durch das nicht konstante bedingte Mittel des Fehlerausdrucks abhängt.
Was bedeutet das? Nehmen wir zur Vereinfachung den einfachsten Fall an, in dem ( i indiziert die Beobachtungen), aber E ( u i ≤ x i ) = h ( x i ) . Dh , dass der Fehlerterm von den Regressoren mit Ausnahme von seiner vorübergehenden diejenigen mittleren unabhängig ist (in X wir nicht umfassen eine Reihe von Einsen).E(ui∣X−i)=0 i E(ui∣xi)=h(xi) X
Angenommen, wir spezifizieren die Regression unter Einbeziehung eines konstanten Terms (eines Regressors aus einer Reihe von Einsen).
and compacting notation
wherea=(a,a,a...)′ , Z=[1:X] , γ=(a,β)′ , ε=u−a .
Then the OLS estimator will be
For unbiasedness we needE[ε∣Z]=0 . But
which cannot be zero for alli , since we examine the case where h(xi) is not a constant function. So
and
Moreover, the error termε has a different mean for each i , and so also a different variance (i.e. it is conditionally heteroskedastic). So its distribution conditional on the regressors differs across the observations i .
But this means that even if the error termui is assumed normal, then the distribution of the sampling error γ^−γ will be normal but not zero-mean mormal, and with unknown bias. And the variance will differ.
So
In other words, "finite-sample" properties are all gone.
We are left only with the option to resort to asymptotically valid inference, for which we will have to make additional assumptions.
So simply put, Strict Exogeneity cannot be "easily ignored".
quelle