Das Gauß-Markov-Theorem besagt, dass der OLS-Schätzer der beste lineare unverzerrte Schätzer für das lineare Regressionsmodell ist.
Angenommen, mir geht es nicht um Linearität und Unparteilichkeit. Gibt es dann einen anderen (möglichen nichtlinearen / voreingenommenen) Schätzer für das lineare Regressionsmodell, der unter den Gauß-Markov-Annahmen oder einer anderen allgemeinen Menge von Annahmen am effizientesten ist?
Es gibt natürlich ein Standardergebnis: OLS selbst ist der beste unvoreingenommene Schätzer, wenn wir zusätzlich zu den Gauß-Markov-Annahmen auch davon ausgehen, dass die Fehler normalverteilt sind. Für eine andere bestimmte Fehlerverteilung könnte ich den entsprechenden Maximum-Likelihood-Schätzer berechnen.
Aber ich habe mich gefragt, ob es einen Schätzer gibt, der unter relativ allgemeinen Umständen besser ist als OLS?
quelle
Ich weiß nicht, ob Sie mit der Bayes-Schätzung einverstanden sind. Wenn ja, können Sie je nach Verlustfunktion unterschiedliche Bayes-Schätzungen erhalten. Ein Satz von Blackwell besagt, dass Bayes-Schätzungen niemals unvoreingenommen sind. Ein entscheidungswissenschaftliches Argument besagt, dass es für jede zulässige Regel (dh für jede andere Regel, mit der es verglichen wird, einen Wert des Parameters gibt, für den das Risiko der vorliegenden Regel (streng) geringer ist als das der Regel, gegen die es sich richtet verglichen werden)) ist eine (verallgemeinerte) Bayes-Regel.
James-Stein-Schätzer sind eine weitere Klasse von Schätzern (die mit Bayes'schen Methoden asymptotisch abgeleitet werden können), die in vielen Fällen besser sind als OLS.
OLS kann in vielen Situationen unzulässig sein und James-Stein Estimator ist ein Beispiel. (auch Steins Paradox genannt).
quelle
Es gibt ein schönes Review-Paper von Kay und Eldar über voreingenommene Schätzungen, um Schätzer mit minimalem mittleren quadratischen Fehler zu finden.
quelle