Frequentistische Statistiken sind für mich gleichbedeutend mit dem Versuch, Entscheidungen zu treffen, die für alle möglichen Stichproben gut sind. Dh eine frequentistische Entscheidungsregel sollte immer versuchen, das frequentistische Risiko zu minimieren, das von einer Verlustfunktion und dem wahren Naturzustand \ theta_0 abhängt :L
Wie hängt die maximale Wahrscheinlichkeitsschätzung mit dem häufigen Risiko zusammen? Angesichts der Tatsache, dass dies die am häufigsten von Frequentisten verwendete Punktschätzungstechnik ist, muss ein Zusammenhang bestehen. Soweit ich weiß, ist die Schätzung der maximalen Wahrscheinlichkeit älter als das Konzept des frequentistischen Risikos, aber es muss dennoch ein Zusammenhang bestehen, warum sonst würden so viele Leute behaupten, dass es sich um eine frequentistische Technik handelt?
Die engste Verbindung, die ich gefunden habe, ist die
"Für parametrische Modelle, die schwache Regularitätsbedingungen erfüllen, beträgt der Maximum Likelihood Estimator ungefähr minimax", Wassermann 2006, p. 201 "
Die akzeptierte Antwort verknüpft entweder eine stärkere Schätzung des Maximum-Likelihood-Punkts mit dem häufigen Risiko oder liefert eine alternative formale Definition der häufig auftretenden Inferenz, die zeigt, dass MLE eine häufig auftretende Inferenzmethode ist.
quelle
Antworten:
Sie wenden eine relativ enge Definition von Frequentismus und MLE an - wenn wir etwas großzügiger und definierender sind
Frequentismus: Ziel der Konsistenz, (asymptotischen) Optimalität, Unparteilichkeit und kontrollierten Fehlerraten bei wiederholter Probenahme, unabhängig von den wahren Parametern
MLE = Punktschätzung + Konfidenzintervalle (CIs)
dann scheint es ziemlich klar zu sein, dass MLE alle frequentistischen Ideale erfüllt. Insbesondere steuern CIs in MLE als p-Werte die Fehlerrate bei wiederholter Abtastung und geben nicht den 95% -Wahrscheinlichkeitsbereich für den wahren Parameterwert an, wie viele Leute denken - daher sind sie durch und durch frequentistisch.
Nicht alle diese Ideen waren bereits in Fisher's 1922 veröffentlichtem Papier "Über die mathematischen Grundlagen der theoretischen Statistik" enthalten , aber die Idee der Optimalität und Unparteilichkeit ist vorhanden, und Neyman fügte die Idee hinzu, CIs mit festen Fehlerraten zu konstruieren. Efron, 2013, "Ein 250-jähriges Argument: Glaube, Verhalten und das Problem" , fasst in seiner gut lesbaren Geschichte der Bayesian / Frequentist-Debatte zusammen:
In Bezug auf Ihre engere Definition stimme ich Ihrer Annahme, dass die Minimierung des Frequentistenrisikos (FR) das Hauptkriterium für die Entscheidung ist, ob eine Methode der Frequentistenphilosophie folgt, nicht ganz zu. Ich würde sagen, dass die Minimierung der FR eine wünschenswerte Eigenschaft ist, die aus der Philosophie des Frequentismus folgt , anstatt dieser vorauszugehen. Daher muss eine Entscheidungsregel / ein Schätzer FR nicht minimieren, um häufig zu sein, und das Minimieren von FR bedeutet auch nicht notwendigerweise, dass eine Methode häufig ist, aber ein Frequentist würde im Zweifel die Minimierung von FR vorziehen.
Wenn wir uns MLE genauer ansehen: Fisher hat gezeigt, dass MLE asymptotisch optimal ist (was im Großen und Ganzen der Minimierung von FR entspricht), und das war sicherlich ein Grund für die Förderung von MLE. Er war sich jedoch bewusst, dass die Optimalität nicht für eine endliche Stichprobengröße galt. Trotzdem war er mit diesem Schätzer aufgrund anderer wünschenswerter Eigenschaften wie Konsistenz, asymptotischer Normalität, Invarianz unter Parametertransformationen zufrieden und vergessen wir nicht: Leicht zu berechnen. Insbesondere die Invarianz wird in der Arbeit von 1922 häufig betont. Aus meiner Sicht waren die Beibehaltung der Invarianz bei der Parametertransformation und die Fähigkeit, die Priors im Allgemeinen loszuwerden, eine seiner Hauptmotive bei der Wahl von MLE. Wenn Sie seine Argumentation besser verstehen wollen, empfehle ich das Papier von 1922.
quelle
Grundsätzlich aus zwei Gründen:
quelle
MAP
ist auch eine punktuelle Schätzung und wird von "True Bayesians"