Für ein lineares Modell bietet die OLS-Lösung den besten linearen unverzerrten Schätzer für die Parameter.
Natürlich können wir eine Tendenz für eine geringere Varianz eintauschen, z. B. eine Kammregression. Aber meine Frage bezieht sich darauf, keine Vorurteile zu haben. Gibt es andere Schätzer, die etwas gebräuchlich sind, aber eine höhere Varianz aufweisen als die geschätzten OLS-Parameter?
Wenn ich einen riesigen Datensatz haben würde, könnte ich ihn natürlich unterproben und die Parameter mit weniger Daten schätzen und die Varianz erhöhen. Ich gehe davon aus, dass dies hypothetisch nützlich sein könnte.
Dies ist eher eine rhetorische Frage, denn wenn ich über BLAUE Schätzer gelesen habe, gibt es keine schlechtere Alternative. Ich vermute, dass die Bereitstellung schlechterer Alternativen auch dazu beitragen könnte, die Leistung von BLUE-Schätzern besser zu verstehen.
Antworten:
Ein Beispiel, das mir einfällt, ist ein GLS-Schätzer, der Beobachtungen unterschiedlich gewichtet, obwohl dies nicht erforderlich ist, wenn die Gauß-Markov-Annahmen erfüllt sind (von denen der Statistiker möglicherweise nicht weiß, dass dies der Fall ist, und der daher weiterhin GLS anwendet).
Betrachten Sie zur Veranschaulichung den Fall einer Regression vonyich , i = 1 , ... , n auf einer Konstante (verallgemeinert leicht auf allgemeine GLS-Schätzer). Hier wird angenommen, dass { yich} eine Zufallsstichprobe aus einer Population mit mittlerem μ und Varianz σ2 .
Dann wissen wir , dass OLS ist nur β = ˉ y die mittlere Probe. Um den Punkt zu betonen , dass jede Beobachtung mit dem Gewicht gewichtet ist , 1 / n , Schreiben dieser als β = n Σ i = 1 1β^= y¯ 1 / n β^= ∑i = 1n1nyich.
Es ist bekanntdassVa r ( β^) = σ2/ n .
Betrachten Sie nun eine andere Schätzfunktion, die als geschrieben werden kann ,β~= ∑i = 1nwichyich,
wobei die Gewichte so sind , daß ∑ichwich= 1 . Dies stellt sicher, dass der Schätzer unverzerrt ist, da
E( ∑i = 1nwichyich) = ∑i = 1nwichE( yich) = ∑i = 1nwichμ = μ .
Ihre Varianz übersteigt die von OLS, es sei denn,wich= 1 / n für alleich (in diesem Fall reduziert sie sich natürlich auf OLS), was zum Beispiel über einen Lagrange angezeigt werden kann:
Hier ist eine grafische Darstellung einer kleinen Simulation, die mit dem folgenden Code erstellt wurde:
In log(s) : NaNs produced
Dass die letzteren drei von der OLS-Lösung übertroffen werden, impliziert die BLUE-Eigenschaft nicht sofort (zumindest nicht für mich), da es nicht offensichtlich ist, ob es sich um lineare Schätzer handelt (noch weiß ich, ob MLE und Huber unvoreingenommen sind).
quelle