Gibt es eine wissenschaftlichere Methode, um die Anzahl der signifikanten Stellen zu bestimmen, die für einen Mittelwert oder ein Konfidenzintervall in einer Situation gemeldet werden sollen, die ziemlich normal ist - z. B. im ersten Jahr am College?
Ich habe die Anzahl der signifikanten Zahlen gesehen, die in eine Tabelle eingefügt werden sollen. Warum verwenden wir keine signifikanten Ziffern und die Anzahl der signifikanten Zahlen in einer Chi-Quadrat-Anpassung , aber diese scheinen nicht den Finger auf das Problem zu legen.
In meinen Klassen versuche ich meinen Schülern zu erklären, dass es eine Verschwendung von Tinte ist, 15 signifikante Stellen zu melden, wenn sie einen so großen Standardfehler in ihren Ergebnissen haben - mein Bauchgefühl war, dass es auf ungefähr irgendwo in der Größenordnung von gerundet werden sollte . Dies unterscheidet sich nicht allzu sehr von den Aussagen von ASTM - Reporting Test Results unter Bezugnahme auf E29, wo sie sagen, dass sie zwischen und .0,05 σ 0,5 σ
BEARBEITEN:
Wenn ich eine Reihe von Zahlen wie x
unten habe, wie viele Ziffern sollte ich verwenden, um den Mittelwert und die Standardabweichung zu drucken?
set.seed(123)
x <- rnorm(30) # default mean=0, sd=1
# R defaults to 7 digits of precision options(digits=7)
mean(x) # -0.04710376 - not far off theoretical 0
sd(x) # 0.9810307 - not far from theoretical 1
sd(x)/sqrt(length(x)) # standard error of mean 0.1791109
FRAGE: Geben Sie im Detail an, wie hoch die Genauigkeit (wenn es einen Vektor mit Zahlen mit doppelter Genauigkeit gibt) für Mittelwert und Standardabweichung ist, und schreiben Sie eine einfache pädagogische R-Funktion, die den Mittelwert und die Standardabweichung auf die signifikante Anzahl von Stellen druckt wird im Vektor reflektiert x
.
R
(wie in fast allen Softwareprogrammen) wird das Drucken durch einen globalen Wert (sieheoptions(digits=...)
) gesteuert , nicht durch Berücksichtigung der Präzision.Antworten:
Der Leitfaden zur Messunsicherheit (GUM) empfiehlt, dass die Unsicherheit nicht mehr als 2 Stellen und das Ergebnis mit der Anzahl der signifikanten Stellen angegeben wird, die erforderlich sind, um sie mit der Unsicherheit in Einklang zu bringen. Siehe Abschnitt 7.2.2 unten
http://www.bipm.org/utils/common/documents/jcgm/JCGM_100_2008_E.pdf
Der folgende Code war mein Versuch, diese Empfehlung in R zu implementieren. Noe, dass R bei Versuchen, nachgestellte Nullen in der Ausgabe beizubehalten, nicht kooperativ sein kann, selbst wenn sie signifikant sind.
quelle
> gumr(x.val,x.unc) $value [1] 8170 $uncert [1] 340
val = 8165.666
undunc = 338.9741
, sollte die Messung alsval = 8.17(34)*10^3
(nichtval = 8170
mitunc = 340
wie angegeben) angegeben werden, um zu verdeutlichen, dass nur zwei Stellen der Unsicherheit signifikant sind.Wenn Sie das Konfidenzintervall sowie den Wert der Statistik anzeigen, ist es kein Problem, so viele signifikante Zahlen anzugeben, wie Sie möchten, da in diesem Fall eine große Anzahl signifikanter Zahlen keine falsche Genauigkeit impliziert, wie es das Konfidenzintervall gibt ein Hinweis auf die wahrscheinliche tatsächliche Genauigkeit (ein glaubwürdiges Intervall wäre besser). Es geht dann im Wesentlichen darum, die Tabelle ordentlich, präzise und lesbar zu machen, sodass es im Wesentlichen unwahrscheinlich ist, dass es eine einfache Regel gibt, die für alle Gelegenheiten geeignet ist.
Die Reproduzierbarkeit ist in wissenschaftlichen Studien wichtig, daher sollte es im Idealfall möglich sein, die Ergebnisse auf eine beliebige Anzahl von signifikanten Zahlen zu reproduzieren (unabhängig davon, ob sie von praktischer Bedeutung sind oder nicht). Das Runden auf eine kleine Anzahl signifikanter Zahlen kann das Vertrauen in eine Replikation einer Studie verringern, da Fehler durch das Runden der Ergebnisse maskiert werden können, sodass das Runden unter bestimmten Umständen einen möglichen Nachteil hat.
Ein weiterer Grund, nicht zu weit zu runden, besteht darin, dass es anderen unmöglich gemacht werden kann, Ihr Studium zu verlängern, ohne es tatsächlich zu wiederholen. Zum Beispiel könnte ich ein Papier veröffentlichen, das verschiedene Algorithmen für maschinelles Lernen unter Verwendung des Friedman-Tests vergleicht, was von der Rangfolge der verschiedenen Algorithmen in einem Satz von Benchmark-Datensätzen abhängt. Wenn die Statistiken für einzelne Klassifizierer in jedem Datensatz abhängig von ihren Standardfehlern einer Reihe von signifikanten Zahlen zugeordnet werden, führt dies zweifellos zu vielen offensichtlichen Bindungen in der Rangliste. Dies bedeutet, dass (i) ein Leser / Rezensent des Papiers den Friedman-Test nicht anhand der im Papier angegebenen Ergebnisse replizieren kann und (ii) jemand anderes dann nicht in der Lage ist, seinen Algorithmus anhand der Benchmark-Datensätze zu bewerten und den Friedman zu verwenden Test, um es in den Kontext der Ergebnisse meiner Studie zu stellen.
quelle
Sicherlich würde jede objektiv oder subjektiv getroffene Entscheidung stark davon abhängen, was Sie messen und wie genau Ihr Messinstrument ist. Letzteres ist nur ein Teil der beobachteten Variation und nicht immer leicht zu erkennen oder vorhandene Beweise dafür zu finden. Ich vermute daher sehr, dass es keine objektive, universell anwendbare Entscheidung gibt. Sie müssen nur Ihr Gehirn benutzen und in jeder Situation das beste Urteil fällen.
quelle