Wenn „Standardfehler“ und „Konfidenzintervalle“ die Messgenauigkeit messen, was sind dann die Messungen der Genauigkeit?

15

Im Buch "Biostatistik für Dummies" auf Seite 40 las ich:

Der Standardfehler (abgekürzt SE) ist eine Möglichkeit anzugeben, wie genau Ihre Schätzung oder Messung von etwas ist.

und

Konfidenzintervalle bieten eine andere Möglichkeit, die Genauigkeit einer Schätzung oder Messung von etwas anzugeben.

Es ist jedoch nichts darüber geschrieben, wie die Genauigkeit der Messung angegeben werden kann.

Frage: Wie kann angegeben werden, wie genau die Messung von etwas ist? Welche Methoden werden dafür verwendet?


Nicht zu verwechseln mit Genauigkeit und Präzision des Tests: https://en.wikipedia.org/wiki/Accuracy_and_precision#In_binary_classification

vasili111
quelle
Fragen Sie nach der Genauigkeit eines einzelnen Parameters oder der Genauigkeit eines Gesamtmodells?
Steven L. Johnson
Die Genauigkeit wird durch systematische Fehler (oder Verzerrungen) beeinträchtigt
Aksakal
@Aksakal und Präzision mit zufälligem Fehler?
Vasili111

Antworten:

18

Die Genauigkeit kann direkt anhand Ihrer Datenpunkte geschätzt werden, die Genauigkeit hängt jedoch vom Versuchsaufbau ab. Angenommen, ich möchte die durchschnittliche Größe amerikanischer Männer ermitteln. Anhand einer Stichprobe von Höhen kann ich meine Genauigkeit abschätzen. Wenn meine Stichprobe jedoch von allen Basketballspielern genommen wird, ist meine Schätzung verzerrt und ungenau, und diese Ungenauigkeit kann nicht aus der Stichprobe selbst identifiziert werden.

Eine Möglichkeit zur Messung der Genauigkeit ist die Kalibrierung Ihrer Messplattform. Indem Sie mit Ihrer Plattform eine bekannte Menge messen, können Sie die Genauigkeit Ihrer Methode zuverlässig testen. Dies könnte Ihnen helfen, die Messabweichung zu finden. Wenn z. B. bei Ihrem Maßband für das Höhenbeispiel ein Zoll fehlt, werden Sie feststellen, dass alle Kalibrierungsmuster einen Zoll zu kurz sind. Es würde jedoch nicht helfen, Ihr experimentelles Designproblem zu beheben.

Kern Wang
quelle
2
+ 1..auch die Schätzmethode kann unabhängig vom Stichprobenplan verzerrt sein ... Sie können sich ein Bild davon machen, wenn Sie Bootstrapping verwenden. Ein gutes Beispiel ist der (der insbesondere bei kleinen Samples niedrig ist). s=(xix¯)2n
2

Die Voraussage wird durch zufällige Fehler bestimmt, und die Genauigkeit wird durch systematische Fehler definiert. Die Präzision kann häufig durch wiederholte Versuche erhöht werden, bei denen die Probengröße erhöht wird. Die Genauigkeit kann nicht behoben werden, indem mehr Daten derselben Messung erfasst werden, da systematische Fehler nicht behoben werden.

Systematischer Fehler führt zu einer Verzerrung des Mittelwerts und kann im selben Experiment nicht bestimmt oder behoben werden. Bedenken Sie Folgendes: Der springende Punkt Ihres Experiments ist häufig das Erkennen des Effekts, z. B. eine Abweichung von Null. Sie messen die Signifikanz, indem Sie die Abweichung mit dem Standardfehler vergleichen. Diese Abweichung kann jedoch selbst eine Abweichung sein (systematischer Fehler)! Deshalb ist der systematische Fehler die schlimmste Art von Fehler in der Physik.

In der Physik müssen Sie zum Beispiel den Bias (systematischen Fehler) außerhalb Ihres Experiments bestimmen und ihn dann in Ihren Messungen korrigieren. Interessanterweise stellen im Bereich der Wirtschaftsprognosen die Verschiebungen des Mittelwerts das größte Problem dar, was im Grunde genommen einem systematischen Fehler oder einer Verzerrung in den Naturwissenschaften entspricht.

Vielleicht erinnerst du dich, wie sehr der systematische Fehler den OPERA-Leuten peinlich war, die Neutrinos " entdeckt " haben, die sich schneller als Licht bewegen! Sie haben nicht für eine Reihe von systematischen Fehlerquellen verantwortlich gemacht und mussten die Schlussfolgerung zurückziehen. Neutrino bricht doch nicht die Lichtgeschwindigkeit, Mist!

Aksakal
quelle