Ich habe Mühe, den Unterschied zwischen dem Standardfehler und der Standardabweichung zu verstehen. Wie unterscheiden sie sich und warum müssen Sie den Standardfehler messen?
mean
standard-deviation
standard-error
intuition
Louis Xie
quelle
quelle
Antworten:
Um die Antwort auf die Frage zu vervollständigen, ging Ocram auf Standardfehler ein, stellte sie jedoch nicht der Standardabweichung gegenüber und erwähnte nicht die Abhängigkeit von der Stichprobengröße. Als Sonderfall für den Schätzer betrachten Sie den Stichprobenmittelwert. Der Standardfehler für den Mittelwert ist wobeiσdie Populationsstandardabweichung ist. In diesem Beispiel sehen wir also explizit, wie der Standardfehler mit zunehmender Stichprobengröße abnimmt. Die Standardabweichung wird am häufigsten verwendet, um sich auf die einzelnen Beobachtungen zu beziehen. Die Standardabweichung beschreibt also die Variabilität der einzelnen Beobachtungen, während der Standardfehler die Variabilität des Schätzers anzeigt. Gute Schätzer sind konsistent, was bedeutet, dass sie zum wahren Parameterwert konvergieren. Wenn ihr Standardfehler mit zunehmender Stichprobengröße auf 0 sinkt, sind die Schätzer konsistent, was in den meisten Fällen der Fall ist, weil der Standardfehler auf 0 geht, wie wir dies explizit mit dem Stichprobenmittelwert sehen.σ/n--√ σ
quelle
Hier ist eine praktischere (und nicht mathematische) Antwort:
Beachten Sie, dass Standardfehler für fast jeden Parameter berechnet werden können, den Sie aus Daten berechnen, nicht nur für den Mittelwert. Der Ausdruck "der Standardfehler" ist etwas mehrdeutig. Die obigen Punkte beziehen sich nur auf den Standardfehler des Mittelwerts.
(Aus dem GraphPad Statistics Guide , den ich geschrieben habe.)
quelle
quelle
(Beachten Sie, dass ich mich auf den Standardfehler des Mittelwerts konzentriere, was meines Erachtens auch der Fragesteller war, aber Sie können für jede Stichprobenstatistik einen Standardfehler generieren.)
Der Standardfehler hängt mit der Standardabweichung zusammen, aber sie sind nicht dasselbe, und durch die Vergrößerung der Stichprobe rücken sie nicht näher zusammen. Eher macht es sie weiter auseinander. Die Standardabweichung der Stichprobe nähert sich mit zunehmender Stichprobengröße der Populationsstandardabweichung an, nicht jedoch der Standardabweichung.
Manchmal ist die Terminologie ein bisschen zu dick, um durchzukommen.
Wenn Sie eine Stichprobe erfassen und die Standardabweichung dieser Stichprobe berechnen, wird die Schätzung der Standardabweichung mit zunehmender Stichprobengröße immer genauer. Nach Ihrer Frage haben Sie anscheinend darüber nachgedacht. Bedenken Sie aber auch, dass der Mittelwert der Stichprobe im Durchschnitt eher dem Bevölkerungsmittelwert entspricht. Dies ist entscheidend für das Verständnis des Standardfehlers.
Der Standardfehler handelt davon, was passieren würde, wenn Sie mehrere Proben einer bestimmten Größe erhalten würden. Wenn Sie eine Stichprobe von 10 nehmen, können Sie eine Schätzung des Mittelwerts erhalten. Dann nehmen Sie eine weitere Stichprobe von 10 und eine neue mittlere Schätzung und so weiter. Die Standardabweichung des Mittels dieser Stichproben ist der Standardfehler. Angesichts der Tatsache, dass Sie Ihre Frage gestellt haben, können Sie jetzt wahrscheinlich feststellen, dass der Standardfehler geringer ist, wenn N hoch ist, da die Wahrscheinlichkeit geringer ist, dass die Mittelwerte der Stichproben stark vom tatsächlichen Wert abweichen.
Für manche klingt das wunderbar, wenn man bedenkt, dass Sie dies aus einer Stichprobe berechnet haben. Sie könnten also einen Standardfehler durch Simulation booten, um die Beziehung zu demonstrieren. In R würde das so aussehen:
Sie werden feststellen, dass diese beiden letzten Befehle (ungefähr) dieselbe Zahl erzeugen. Sie können die Werte für n, m und s variieren und sie kommen sich immer ziemlich nahe.
quelle