Die folgende Aussage verwirrt mich:
"Um die Standardabweichung einer Reihe von Zahlen zu erhöhen, müssen Sie einen Wert hinzufügen, der mehr als eine Standardabweichung vom Mittelwert entfernt ist."
Was ist der Beweis dafür ? Ich weiß natürlich, wie wir die Standardabweichung definieren, aber dieser Teil scheint mir irgendwie zu fehlen. Irgendwelche Kommentare?
standard-deviation
JohnK
quelle
quelle
Antworten:
Für alle Zahlen y 1 , y 2 , … , y N mit dem Mittelwert ˉ y = 1N y1,y2,…,yN , die Varianz ist gegeben durch
σ 2y¯=1N∑i=1Nyi
Anwenden von(1)auf die gegebene Menge vonnZahlenx1,x2,…xn,
die wir zur Vereinfachung der Darstellung als Mittelwert vonˉ betrachtenx=0, wir haben
σ2=1
quelle
Die rätselhafte Aussage gibt eine notwendige, aber unzureichende Bedingung für die Erhöhung der Standardabweichung an. Wenn die alte Stichprobengröße , der alte Mittelwert m ist , die alte Standardabweichung s ist und ein neuer Punkt x zu den Daten hinzugefügt wird, ist die neue Standardabweichung entsprechend s kleiner, gleich oder größer als s als | x - m | ist kleiner als, gleich oder größer als s √n m s x s |x−m| .s1+1/n−−−−−−√
quelle
Wenn Sie die Algebra (die auch funktioniert) beiseite lassen, denken Sie so: Die Standardabweichung ist die Quadratwurzel der Varianz. Die Varianz ist der Durchschnitt der quadratischen Abstände vom Mittelwert. Wenn wir einen Wert hinzufügen, der näher am Mittelwert liegt, wird die Varianz kleiner. Wenn wir einen Wert hinzufügen, der weiter vom Mittelwert entfernt ist, wächst er.
Dies gilt für jeden Durchschnitt von Werten, die nicht negativ sind. Wenn Sie einen Wert hinzufügen, der über dem Mittelwert liegt, erhöht sich der Mittelwert. Wenn Sie einen niedrigeren Wert hinzufügen, wird dieser verringert.
quelle
I'll get you started on the algebra, but won't take it quite all of the way. First, standardize your data by subtracting the mean and dividing by the standard deviation:
quelle