Auf dieser Psychometrics-Website habe ich das gelesen
[A] Eine tiefe Pegelvarianz ist ein grundlegenderes Konzept als die Standardabweichung.
Die Site erklärt nicht weiter, warum Varianz fundamentaler sein soll als Standardabweichung, aber es hat mich daran erinnert, dass ich einige ähnliche Dinge auf dieser Site gelesen habe.
Zum Beispiel schreibt @ kjetil-b-halvorsen in diesem Kommentar : "Standardabweichung ist gut für Interpretation und Berichterstattung. Für die Entwicklung der Theorie ist die Varianz besser."
Ich spüre, dass diese Behauptungen zusammenhängen, aber ich verstehe sie nicht wirklich. Ich verstehe, dass die Quadratwurzel der Stichprobenvarianz kein unvoreingenommener Schätzer der Populationsstandardabweichung ist, aber es muss mit Sicherheit mehr als das geben.
Vielleicht ist der Begriff "fundamental" für diese Site zu vage. In diesem Fall können wir vielleicht meine Frage so operationalisieren, dass wir fragen, ob die Varianz aus Sicht der Entwicklung der statistischen Theorie wichtiger ist als die Standardabweichung. Warum Warum nicht?
quelle
Antworten:
Die Antworten von Robert und Bey geben einen Teil der Geschichte wieder (dh Momente werden tendenziell als grundlegende Eigenschaften von Verteilungen angesehen, und die Standardabweichung wird herkömmlicherweise eher in Bezug auf den zweiten zentralen Moment als in Bezug auf den umgekehrten Moment definiert), aber in welchem Umfang Dinge sind wirklich grundlegend sind, hängen zum Teil davon ab, was wir unter dem Begriff verstehen.
Es würde jedoch Größen wie die Momenterzeugungsfunktion (oder ein Äquivalent zu den oben definierten neuen Größen) weniger "natürlich" machen, was die Dinge etwas umständlicher machen würde (aber einige Konventionen sind ein bisschen so). Es gibt einige praktische Eigenschaften des MGF, die in der anderen Richtung nicht so praktisch wären.
Meiner Meinung nach ist es grundlegender (aber damit verbunden), dass es eine Reihe grundlegender Varianzmerkmale gibt, die als Varianzmerkmale geeigneter sind als als Standardabweichungsmerkmale (z. B. die Varianz der Summen der unabhängigen Varianz) Zufallsvariablen ist die Summe der Varianzen).
Diese Additivität ist eine Eigenschaft, die von anderen Dispersionsmaßen nicht geteilt wird und eine Reihe wichtiger Konsequenzen hat.
[Es gibt ähnliche Beziehungen zwischen den anderen Kumulanten, daher ist dies ein Sinn, in dem wir Dinge in Bezug auf Momente allgemeiner definieren möchten.]
All diese Gründe sind wohl entweder Konvention oder Bequemlichkeit, aber in gewissem Maße ist es eine Frage der Sichtweise (z. B. sind Momente von einigen Gesichtspunkten ziemlich wichtige Größen, von anderen sind sie nicht allzu wichtig). Es kann sein, dass das Bit "auf einer tiefen Ebene" nichts anderes bedeuten soll als kjetils "bei der Entwicklung der Theorie".
Ich stimme dem Punkt von kjetil zu, den Sie in Ihrer Frage angesprochen haben. Bis zu einem gewissen Grad ist diese Antwort lediglich eine handgewellte Diskussion darüber.
quelle
Die Varianz wird durch den ersten und den zweiten Moment einer Verteilung definiert. Im Gegensatz dazu ist die Standardabweichung eher eine "Norm" als ein Moment. Momente sind grundlegende Eigenschaften einer Verteilung, wohingegen Normen nur Mittel sind, um eine Unterscheidung zu treffen.
quelle
Die Varianz ist fundamentaler als die Standardabweichung, da die Standardabweichung als "Quadratwurzel der Varianz" definiert ist, dh ihre Definition hängt vollständig von der Varianz ab.
Die Varianz wird dagegen - völlig unabhängig - als "Erwartung der quadratischen Differenz zwischen einer Stichprobe und dem Mittelwert" definiert.
quelle
quelle