Die triviale Antwort lautet, dass immer mehr Daten weniger Daten vorgezogen werden.
Das Problem der kleinen Stichprobengröße ist klar. In der linearen Regression (OLS) können Sie technisch ein Modell wie OLS mit n = k + 1 anpassen, aber Sie werden Müll daraus bekommen, dh sehr große Standardfehler. Zu diesem Thema gibt es eine großartige Arbeit von Arthur Goldberger namens Micronumerocity, die in Kapitel 23 seines Buches A Course in Econometrics zusammengefasst ist .
Eine häufige Heuristik ist, dass Sie für jeden Parameter, den Sie schätzen möchten, 20 Beobachtungen haben sollten. Es ist immer ein Kompromiss zwischen der Größe Ihrer Standardfehler (und damit der Signifikanzprüfung) und der Größe Ihrer Stichprobe. Dies ist ein Grund, warum einige von uns Signifikanztests hassen, da Sie mit einer enormen Stichprobe einen unglaublich kleinen (relativen) Standardfehler erhalten und daher bei naiven Tests eine sinnlose statistische Signifikanz finden können, z. B. ob ein Regressionskoeffizient Null ist.
Während die Stichprobengröße wichtig ist, ist die Qualität Ihrer Stichprobe wichtiger, z. B. ob die Stichprobe für die Bevölkerung verallgemeinerbar ist, ob es sich um eine einfache Zufallsstichprobe oder eine andere geeignete Stichprobenmethode handelt (und dies bei der Analyse berücksichtigt wurde), liegt ein Messfehler vor , Antwortverzerrung, Auswahlverzerrung usw.