Ich lese einen Kommentar zu einem Artikel und der Autor stellt fest, dass manchmal, auch wenn die Schätzer (ermittelt nach ML oder maximaler Quasilikelihood) nicht konsistent sind, die Potenz eines Likelihood-Ratio-Tests oder Quasi-Likelihood-Ratio-Tests immer noch konvergieren kann 1, da die Anzahl der beobachteten Daten gegen unendlich tendiert (Testkonsistenz). Wie und wann passiert das? Kennen Sie eine Bibliographie?
mathematical-statistics
references
inference
power
consistency
Ein alter Mann im Meer.
quelle
quelle
Antworten:
[Ich denke, dies könnte ein Beispiel für die Art von Situation sein, die in Ihrer Frage zur Diskussion steht.]
Es gibt zahlreiche Beispiele für inkonsistente ML-Schätzer. Inkonsistenzen treten häufig bei einer Vielzahl von leicht komplizierten Mischungsproblemen und Zensurproblemen auf.
[Die Konsistenz eines Tests besteht im Grunde nur darin, dass die Potenz des Tests für eine (festgelegte) falsche Hypothese auf eins steigt, wenn .]n→∞
Radford Neal gibt in seinem Blogeintrag vom 09.08.2008 ein Beispiel für eine inkonsistente Maximum-Likelihood-Schätzung: Ein „gewöhnliches“ Beispiel . Es beinhaltet die Schätzung des Parameters in:θ
(Neal verwendet wenn ich θ habe ), wobei die ML-Schätzung von θ zu 0 als n → ∞ tendiert (und in der Tat die Wahrscheinlichkeit in einem Peak nahe 0 weit höher sein kann als beim wahren Wert für recht bescheidene Stichprobengrößen). Es ist jedoch der Fall, dass es einen Peak nahe dem wahren Wert θ gibt , er ist nur kleiner als der nahe 0.t θ θ 0 n→∞ θ
Stellen Sie sich nun zwei Fälle vor, die sich auf diese Situation beziehen:
a) Durchführen eines Wahrscheinlichkeitsverhältnis-Tests von thgr ; 0 gegen die Alternative H 1 : & thgr ; < & thgr ; 0 ;H0:θ=θ0 H1:θ<θ0
b) Durchführen eines Wahrscheinlichkeitsverhältnistests von gegen die Alternative H 1 : θ & ne; θ 0 .H0:θ=θ0 H1:θ≠θ0
Stellen Sie sich im Fall (a) vor, dass das wahre (sodass die Alternative wahr ist und 0 die andere Seite des wahren θ ist ). Dann , trotz der Tatsache , dass die Wahrscheinlichkeit sehr nahe bei 0 , daß bei überschreiten θ , bei der Wahrscheinlichkeit θ übersteigt jedoch die Wahrscheinlichkeit , dass bei θ 0 , selbst in kleinen Proben und das Verhältnis wird weiter wachsen größer als n → ∞ , in solchen eine Möglichkeit, die Ablehnungswahrscheinlichkeit in einem Likelihood-Ratio-Test auf 1 zu setzen.θ<θ0 0 θ θ θ θ0 n→∞
Selbst in Fall (b) sollte, solange festgelegt und von 0 abgegrenzt ist , auch der Fall eintreten, dass das Wahrscheinlichkeitsverhältnis so ansteigt, dass die Zurückweisungswahrscheinlichkeit auch in einem Wahrscheinlichkeitsverhältnis-Test ermittelt wird Ansatz 1.θ0 0
Dies scheint also ein Beispiel für eine inkonsistente ML-Schätzung zu sein, bei der die Leistung eines LRT dennoch auf 1 gehen sollte (außer wenn ).θ0=0
[Beachten Sie, dass es an diesem Punkt wirklich nichts gibt, was nicht bereits in Whubers Antwort enthalten ist. Ich denke, es ist ein Beispiel für Klarheit und es ist viel einfacher, den Unterschied zwischen Testkonsistenz und Konsistenz eines Schätzers zu verstehen. Die Tatsache, dass der inkonsistente Schätzer im konkreten Beispiel nicht ML war, spielt für das Verständnis dieses Unterschieds keine Rolle - und die Einführung eines inkonsistenten Schätzers, der spezifisch ML ist - wie ich es hier versucht habe -, ändert das nicht wirklich inhaltliche Erklärung. Der einzige wirkliche Punkt des Beispiels hier ist, dass es Ihrer Sorge um die Verwendung eines ML-Schätzers gerecht wird.]
quelle
quelle