Große asymptotische Stichprobe / Theorie - Warum sollte man sich darum kümmern?

13

Ich hoffe, dass diese Frage nicht als "zu allgemein" markiert wird, und hoffe, dass eine Diskussion in Gang kommt, von der alle profitieren.

In der Statistik verbringen wir viel Zeit mit dem Erlernen großer Stichprobentheorien. Wir sind sehr daran interessiert, die asymptotischen Eigenschaften unserer Schätzer zu bewerten, einschließlich der Frage, ob sie asymptotisch unverzerrt, asymptotisch effizient, asymptotisch verteilt und so weiter sind. Das Wort asymptotisch ist stark mit der Annahme verbunden, dass n .

In der Realität haben wir es jedoch immer mit endlichen tun n. Meine Fragen sind:

1) Was meinen wir mit großer Stichprobe? Wie können wir zwischen kleinen und großen Proben unterscheiden?

2) Wenn wir sagen n, meinen wir wörtlich, dass n nach gehen soll ?

ex für die Binomialverteilung benötigt X¯ etwa n = 30, um unter CLT zur Normalverteilung zu konvergieren. Sollten wir n oder in diesem Fall mit meinen wir 30 oder mehr ?!

3) Angenommen, wir haben eine endliche Stichprobe und wissen alles über das asymptotische Verhalten unserer Schätzer. Na und? Nehmen wir an, dass unsere Schätzer asymptotisch unverzerrt sind. Haben wir dann eine unverzerrte Schätzung für unseren interessierenden Parameter in unserer endlichen Stichprobe oder bedeutet dies, dass wir, wenn wir hätten, eine unverzerrte Schätzung nhätten?

Wie Sie aus den obigen Fragen ersehen können, versuche ich, die Philosophie hinter "Large Sample Asymptotics" zu verstehen und herauszufinden, warum uns das interessiert. Ich brauche einige Intuitionen für die Theoreme, die ich lerne.

Sam
quelle
5
Das Verhalten bei großen Stichproben ist eine Möglichkeit, um zu zeigen, dass ein gegebener Schätzer im Grenzbereich unendlicher Daten funktioniert oder was auch immer. Sie haben Recht, dass es uns nicht unbedingt sagt, wie gut ein Schätzer in der Praxis ist, aber es ist ein erster Schritt: Es ist unwahrscheinlich, dass Sie einen Schätzer verwenden möchten, der nicht asymptotisch konsistent ist (oder was auch immer). Der Vorteil der asymptotischen Analyse besteht darin, dass es oft einfacher ist, dies herauszufinden als bei einer endlichen Stichprobe.
Dougal
sichnx=x
1
Für die Binomialverteilung ist ein schlechtes Kriterium. Wenn Sie p = 0,001 und n = 30 habenn>30p=0,001n=30nMindest(p,1-p)>15

Antworten:

6

Besser spät als nie. Lassen Sie mich zunächst drei (meiner Meinung nach wichtige) Gründe nennen, warum wir uns auf die asymptotische Unparteilichkeit (Konsistenz) von Schätzern konzentrieren.

a) Konsistenz ist ein Mindestkriterium. Wenn ein Schätzer auch mit vielen Daten nicht richtig schätzt, was nützt es dann? Dies ist die Begründung in Wooldridge: Introductory Econometrics.

b) Endliche Probeneigenschaften sind viel schwerer zu beweisen (oder besser gesagt, asymptotische Aussagen sind einfacher). Ich recherchiere gerade selbst und wann immer Sie sich auf umfangreiche Beispielwerkzeuge verlassen können, wird es viel einfacher. Gesetze großer Zahlen, Martingal-Konvergenz-Theoreme usw. sind gute Werkzeuge, um asymptotische Ergebnisse zu erhalten, helfen aber nicht bei endlichen Stichproben. Ich glaube, dass in Hayashi (2000) etwas in dieser Richtung erwähnt wird: Ökonometrie.

c) Wenn Schätzer für kleine Stichproben voreingenommen sind, kann man mit sogenannten Korrekturen für kleine Stichproben potenziell korrigieren oder zumindest verbessern. Diese sind oft theoretisch kompliziert (um zu beweisen, dass sie den Schätzer ohne Korrektur verbessern). Außerdem können sich die meisten Menschen gut auf große Stichproben verlassen, sodass Korrekturen für kleine Stichproben in Standardstatistiksoftware häufig nicht implementiert werden, da sie nur von wenigen Personen benötigt werden (diejenigen, die nicht mehr Daten erhalten UND sich nicht um Unparteilichkeit kümmern). Daher gibt es bestimmte Hindernisse für die Verwendung dieser ungewöhnlichen Korrekturen.

Auf deine Fragen. Was meinen wir mit "großer Stichprobe"? Dies hängt stark vom Kontext ab und kann für bestimmte Tools per Simulation beantwortet werden. Das heißt, Sie generieren künstlich Daten und sehen, wie sich beispielsweise die Ablehnungsrate in Abhängigkeit von der Stichprobengröße oder die Abweichung in Abhängigkeit von der Stichprobengröße verhält. Ein konkretes Beispiel finden Sie hier , wo die Autoren sehen, wie viele Cluster für OLS-Cluster-Standardfehler, Block-Bootstrap-Standardfehler usw. erforderlich sind, um eine gute Leistung zu erzielen. Einige Theoretiker haben auch Aussagen zur Konvergenzrate, aber aus praktischen Gründen scheinen die Simulationen aussagekräftiger zu sein.

n

Zu Frage 3: In der Regel wird die Frage der Unparteilichkeit (für alle Stichprobengrößen) und der Konsistenz (Unparteilichkeit für große Stichproben) getrennt betrachtet. Ein Schätzer kann voreingenommen, aber konsistent sein. In diesem Fall sind tatsächlich nur die Schätzungen für große Stichproben unverzerrt. Es gibt aber auch unverzerrte und konsistente Schätzer, die theoretisch für jede Stichprobengröße anwendbar sind. ( Ein Schätzer kann aus technischen Gründen auch unvoreingenommen, aber inkonsistent sein. )

Namenlos
quelle