Eine Folge von Schätzern für einen Parameter θ ist asymptotisch normal, wenn √. (Quelle) Wir nennen dannvdie asymptotische Varianz vonUn. Wenn diese Varianz gleich derCramer-Rao-Grenze ist, sagen wir, dass der Schätzer / die Sequenz asymptotisch effizient ist.
Frage: Warum verwenden wir im Besonderen?
Ich weiß , daß für die Probe Mittelwert, und so normalisiert diese Wahl es. Aber da die obigen Definitionen für mehr als den Stichprobenmittelwert gelten, warum wählen wir immer noch die Normierung mit .
estimation
asymptotics
efficiency
ahnungslos
quelle
quelle
Antworten:
Wir kommen nicht dazu wählen . Der "normalisierende" Faktor ist im Wesentlichen ein "Varianzstabilisierender gegen etwas Endliches" Faktor, damit der Ausdruck nicht gegen Null oder gegen unendlich geht, wenn die Stichprobengröße gegen unendlich geht, sondern um eine Verteilung am Limit zu halten.
So muss es sein, was es in jedem Fall sein muss. Natürlich ist es interessant , dass in vielen Fällen zeigt sich, dass es hat zu seinn−−√ . (siehe aber auch @whubers Kommentar unten).
Ein Standardbeispiel, bei dem der Normalisierungsfaktor und nicht n sein mussn n−−√ ist, wenn wir ein Modell haben
mit weißes Rauschen, und wir das Unbekannte schätzen β durch Ordinary Least Squares.ut β
In diesem Fall ist der wahre Wert des Koeffizienten , dann ist der OLS-Schätzer konsistent und konvergiert mit dem üblichen √|β|<1 rate. n−−√
Wenn jedoch stattdessen der wahre Wert (dh wir haben in Wirklichkeit einen reinen Zufallslauf), dann ist der OLS-Schätzer konsistent, konvergiert jedoch "schneller" mit der Rate n (dies wird manchmal als "superkonsistenter" Schätzer bezeichnet - seitdem Ich denke, so viele Schätzer konvergieren mit der Rate √β=1 n ).
In diesem Fall seine (nicht normal) Häufigkeitsverteilung zu erhalten, wirhabenmaßstab( β -β)vonn(wenn wir nur skalierenn−−√
(β^−β) n der Ausdruck geht auf Null). Hamilton Kapitel 17hat die Details.n−−√
quelle
You were on the right track with a sample mean variance intuition. Re-arrange the condition:
The last equation is informal. However, it's in some way more intuitive: you say that the deviation ofUn from θ is becoming more like a normal distribution when n increases. The variance is shrinking, but the shape becomes closer to normal distribution.
In math they don't define the convergence to the changing right hand side (n is varying). That's why the same idea is expressed as the original condition, that you gave. In which the right hand side is fixed, and the left hand side converges to it.
quelle