Warum

18

Eine Folge von Schätzern für einen Parameter θ ist asymptotisch normal, wenn Unθ. (Quelle) Wir nennen dannvdie asymptotische Varianz vonUn. Wenn diese Varianz gleich derCramer-Rao-Grenze ist, sagen wir, dass der Schätzer / die Sequenz asymptotisch effizient ist.n(Unθ)N(0,v)vUn

Frage: Warum verwenden wir im Besonderen?n

Ich weiß , daß für die Probe Mittelwert, Var(X¯)=σ2n und so normalisiert diese Wahl es. Aber da die obigen Definitionen für mehr als den Stichprobenmittelwert gelten, warum wählen wir immer noch die Normierung mit n .

ahnungslos
quelle
2
Für einen guten Schätzer sollte Mittelwert θ haben , wobei der Parameter geschätzt wird, und die Varianz von U n sollte gegen 0 konvergieren, dh die Verteilung von U n sollte gegen eine entartete Verteilung mit einem einzelnen Atom bei θ konvergieren . Es gibt jedoch viele verschiedene Möglichkeiten, wie diese Konvergenz auftreten kann, z. B. U nU ( θ - 1 / n , θ + 1 / n ) oder U nN ( ,UnθUn0UnθUnU(θ1/n,θ+1/n) usw. Wir möchten das Soubriquetasymptotisch normalauf den letzteren Fallanwenden, aber nicht auf den ersteren Fall. UnN(θ,v/n)
Dilip Sarwate
1
Effiziente Schätzer sind asymptotisch normal. en.wikipedia.org/wiki/…
Khashaa
1
Könnte diese Frage besser als "asymptotische Normalität" als als "asymptotische Effizienz" bezeichnet werden? Mir ist nicht klar, wo "Effizienz" ein wesentlicher Aspekt der Frage wird und nicht nur der Kontext, in dem "asymptotische Normalität" aufgetreten ist.
Silberfischchen
Man muss nur einen Beweis für die asymptotische Normalität von MLE prüfen! Die Quadratwurzel soll einen zentralen Grenzwertsatz auf einen Stichprobenmittelwert anwenden! n
Megadeth

Antworten:

15

Wir kommen nicht dazu wählen . Der "normalisierende" Faktor ist im Wesentlichen ein "Varianzstabilisierender gegen etwas Endliches" Faktor, damit der Ausdruck nicht gegen Null oder gegen unendlich geht, wenn die Stichprobengröße gegen unendlich geht, sondern um eine Verteilung am Limit zu halten.

So muss es sein, was es in jedem Fall sein muss. Natürlich ist es interessant , dass in vielen Fällen zeigt sich, dass es hat zu seinn . (siehe aber auch @whubers Kommentar unten).

Ein Standardbeispiel, bei dem der Normalisierungsfaktor und nicht n sein mussnn ist, wenn wir ein Modell haben

yt=βyt1+ut,y0=0,t=1,...,T

mit weißes Rauschen, und wir das Unbekannte schätzen β durch Ordinary Least Squares.utβ

In diesem Fall ist der wahre Wert des Koeffizienten , dann ist der OLS-Schätzer konsistent und konvergiert mit dem üblichen |β|<1 rate. n

Wenn jedoch stattdessen der wahre Wert (dh wir haben in Wirklichkeit einen reinen Zufallslauf), dann ist der OLS-Schätzer konsistent, konvergiert jedoch "schneller" mit der Rate n (dies wird manchmal als "superkonsistenter" Schätzer bezeichnet - seitdem Ich denke, so viele Schätzer konvergieren mit der Rate β=1n ). In diesem Fall seine (nicht normal) Häufigkeitsverteilung zu erhalten, wirhabenmaßstab( β -β)vonn(wenn wir nur skalierenn
(β^β)n der Ausdruck geht auf Null). Hamilton Kapitel 17hat die Details.n

Alecos Papadopoulos
quelle
2
yt=yt1+ut,u0=0y0=01,2,yt=βyt1+utβ^n|β|<1 but when β=1 convergence is at rate n, or is it the case that in the model yt=βyt1+ut the convergence is always at rate n? In short, what is the significance of the statement "and β=1, i.e. a pure random walk."?
Dilip Sarwate
@DilipSarwate Thanks. Updated. I believe it is clear now.
Alecos Papadopoulos
4
(+1) It might be worthwhile and instructive to note that the choice of n (or n or whatever may be appropriate) is not unique. In its stead you may use any function f(n) for which the limiting value of f(n)/n equals unity. It is only in this broader sense that f "has to be whatever it has to be."
whuber
1
@Khashaa The OP asked about asymptotic efficiency, but in the process, it was revealed that the OP might had the wrong impression about "normalizing" factors. This is a more fundamental issue, so I chose to cover this in my answer. Nothing is said in my answer about efficiency.
Alecos Papadopoulos
2
Perhaps it is worth mentioning in your answer that the case with n rather than n is called "superconsistent"? Currently the only other mention of "superconsistent" on CV which the site's search function can pick up is another one by Alecos! I think it's a good idea to make Qs and As more search-friendly.
Silverfish
1

You were on the right track with a sample mean variance intuition. Re-arrange the condition:

n(Unθ)N(0,v)
(Unθ)N(0,v)n
UnN(θ,vn)

The last equation is informal. However, it's in some way more intuitive: you say that the deviation of Un from θ is becoming more like a normal distribution when n increases. The variance is shrinking, but the shape becomes closer to normal distribution.

In math they don't define the convergence to the changing right hand side (n is varying). That's why the same idea is expressed as the original condition, that you gave. In which the right hand side is fixed, and the left hand side converges to it.

Aksakal
quelle
You could explain how you do the "re-arrangements". Like what properties you apply.
mavavilj