Der erste Satz dieser Wiki- Seite besagt, dass "in der Ökonometrie ein Endogenitätsproblem auftritt, wenn eine erklärende Variable mit dem Fehlerterm korreliert wird. 1 "
Meine Frage ist, wie kann das jemals passieren? Ist Regressions-Beta nicht so gewählt, dass der Fehlerterm orthogonal zum Spaltenraum der Entwurfsmatrix ist?
regression
Einwohner des Nordens
quelle
quelle
Antworten:
Sie verschmelzen zwei Arten von "Fehler" -Begriffen. Wikipedia hat tatsächlich einen Artikel, der sich mit dieser Unterscheidung zwischen Fehlern und Residuen befasst .
In einer OLS-Regression die Residuen (Ihre Schätzungen des Fehler- oder Störungsterms) in der Tat sind garantiert mit den Einflussvariablen werden unkorreliert, enthält die Regression unterAnnahme eines konstanten Term.ε^
Aber die "wahren" Fehler epsi ; können durchaus mit ihnen korreliert sein, und dies zählt als Endogenität.ε
Betrachten Sie zur Vereinfachung das Regressionsmodell (Sie können dies als den zugrunde liegenden " Datenerzeugungsprozess " oder "DGP" bezeichnen, das theoretische Modell, von dem wir annehmen, dass es den Wert von ):y
Grundsätzlich gibt es keinen Grund, warum in unserem Modell nicht mit ε korreliert werden kann , jedoch würden wir es vorziehen, die Standard-OLS-Annahmen auf diese Weise nicht zu verletzen. Zum Beispiel könnte es sein, dass y von einer anderen Variablen abhängt, die in unserem Modell weggelassen wurde, und dies wurde in den Störungsterm einbezogen (das ε ist der Punkt, an dem wir alle anderen Dinge als x , die y beeinflussen, zusammenfassen ). Wenn diese ausgelassene Variable auch mit x korreliert ist , wird & epsi; wiederum mit x korreliert sein und wir haben Endogenität (insbesondere eine Verzerrung durch ausgelassene Variable ).x ε y ε x y x ε x
Wenn Sie Ihr Regressionsmodell anhand der verfügbaren Daten schätzen, erhalten wir
Aufgrund der Art und Weise OLS Arbeiten *, die Residuen ε mit unkorreliert x . Aber das bedeutet nicht , dass wir vermieden endogeneity haben - es bedeutet nur , dass wir es nicht erkennen können durch die Korrelation zwischen der Analyse ε und x , die (bis zu numerischen Fehlern) wird Null. Und weil die OLS-Annahmen verletzt wurden, ist uns nicht mehr garantiert, dass die guten Eigenschaften, wie Unparteilichkeit, die wir an OLS genießen. Unsere Schätzung β 2 wird vorgespannt werden.ε^ x ε^ x β^2
Die Tatsachedass ε mit unkorreliert ist x folgt unmittelbar aus den „normalen Gleichungen“ verwenden wir unsere besten Schätzungen für die Koeffizienten zu wählen.(∗) ε^ x
Wenn Sie nicht an die Matrix - Einstellung verwendet werden, und ich halte mich an das bivariate Modell in meinem Beispiel oben verwendet, dann ist die Summe der quadrierten Residuen ist und die optimalen zu finden , b 1 = β 1 und b 2 =S(b1,b2)=∑ni=1ε2i=∑ni=1(yi−b1−b2xi)2 b1=β^1 b2=β^2 , die dies minimieren, finden wir die Normalgleichungen, erstens die Bedingung erster Ordnung für den geschätzten Achsenabschnitt:
der zeigt , dass die Summe (und somit Mittel) der Residuen gleich Null ist , so dass die Formel für die Kovarianz zwischen ε und jede Variable x dann verringert 1ε^ x 1n−1∑ni=1xiε^i . We see this is zero by considering the first-order condition for the estimated slope, which is that
If you are used to working with matrices, we can generalise this to multiple regression by definingS(b)=ε′ε=(y−Xb)′(y−Xb) ; the first-order condition to minimise S(b) at optimal b=β^ is:
This implies each row ofX′ , and hence each column of X , is orthogonal to ε^ . Then if the design matrix X has a column of ones (which happens if your model has an intercept term), we must have ∑ni=1ε^i=0 so the residuals have zero sum and zero mean. The covariance between ε^ and any variable x is again 1n−1∑ni=1xiε^i and for any variable x included in our model we know this sum is zero, because ε^ is orthogonal to every column of the design matrix. Hence there is zero covariance, and zero correlation, between ε^ and any predictor variable x .
If you prefer a more geometric view of things, our desire thaty^ lies as close as possible to y in a Pythagorean kind of way, and the fact that y^ is constrained to the column space of the design matrix X , dictate that y^ should be the orthogonal projection of the observed y onto that column space. Hence the vector of residuals ε^=y−y^ is orthogonal to every column of X , including the vector of ones 1n if an intercept term is included in the model. As before, this implies the sum of residuals is zero, whence the residual vector's orthogonality with the other columns of X ensures it is uncorrelated with each of those predictors.
But nothing we have done here says anything about the true errorsε . Assuming there is an intercept term in our model, the residuals ε^ are only uncorrelated with x as a mathematical consequence of the manner in which we chose to estimate regression coefficients β^ . The way we selected our β^ affects our predicted values y^ and hence our residuals ε^=y−y^ . If we choose β^ by OLS, we must solve the normal equations and these enforce that our estimated residuals ε^ are uncorrelated with x . Our choice of β^ affects y^ but not E(y) and hence imposes no conditions on the true errors ε=y−E(y) . It would be a mistake to think that ε^ has somehow "inherited" its uncorrelatedness with x from the OLS assumption that ε should be uncorrelated with x . The uncorrelatedness arises from the normal equations.
quelle
Simple example:
The data generating process is:
If we ran that regression, we would get estimatesa^ , b^1 , and b^2 , and with enough data, they would converge on a , b1 , and b2 respectively.
(Technical note: We need a little randomness so we don't buy exactly one bun for each burger we buy at every visit to the grocery store. If we did this,x1 and x2 would be collinear.)
An example of omitted variable bias:
Now let's consider the model:
Observe thatui=b2xi,2+ϵi . Hence
Is this zero? Almost certainly not! The purchase of burgersx1 and the purchase of buns x2 are almost certainly correlated! Hence u and x1 are correlated!
What happens if you tried to run the regression?
If you tried to run:
Your estimateb^1 would almost certainly be a poor estimate of b1 because the OLS regression estimates a^,b^,u^ would be constructed so that u^ and x1 are uncorrelated in your sample. But the actual u is correlated with x1 in the population!
What would happen in practice if you did this? Your estimateb^1 of the price of burgers would ALSO pickup the price of buns. Let's say every time you bought a $1 burger you tended to buy a $0.50 bun (but not all the time). Your estimate of the price of burgers might be $1.40. You'd be picking up the burger channel and the bun channel in your estimate of the burger price.
quelle
Suppose that we're building a regression of the weight of an animal on its height. Clearly, the weight of a dolphin would be measured differently (in different procedure and using different instruments) from the weight of an elephant or a snake. This means that the model errors will be dependent on the height, i.e. explanatory variable. They could be dependent in many different ways. For instance, maybe we tend to slightly overestimate the elephant weights and slightly underestimate the snake's, etc.
So, here we established that it is easy to end up with a situation when the errors are correlated with the explanatory variables. Now, if we ignore this and proceed to regression as usual, we'll notice that the regression residuals are not correlated with the design matrix. This is because, by design the regression forces the residuals to be uncorrelated. Note, also that residuals are not the errors, they're the estimates of errors. So, regardless of whether the errors themselves are correlated or not with the independent variables the error estimates (residuals) will be uncorrelated by the construction of the regression equation solution.
quelle