Wie bestimmen Sie die Genauigkeit eines Messgeräts?

10

Nehmen wir an, Sie haben ein Messgerät, dessen Genauigkeit Sie nicht kennen, und ein Referenzmessgerät. Beide messen eine Variable . Der interessierende Bereich ist x 0 < x < x 1 . Wie bestimmen Sie die Genauigkeit des unbekannten Geräts in diesem Bereich?xx0<x<x1

Meine Vorgehensweise wäre, Werte für beide Geräte von bis x 1 zu erfassen und eine Fehlerverteilung zu erstellen . Die Genauigkeit könnte dann die Fehlerspanne sein, ± 3 σ oder ähnliches - ist das richtig?x0x1±3σ

Annahmen:

  • Das Referenzmessgerät ist kalibriert und weist praktisch keinen Fehler auf
John HK
quelle
Zuerst sollte das Messreferenzgerät richtig kalibriert werden. Dann kann die Genauigkeit durch die minimale Eingabe bestimmt werden, wenn sich die Ausgabe ändert. Ex. Bei Messschiebern ist die minimale Eingabe die Entfernung.
Fennekin
Ich habe die Annahme hinzugefügt, dass es kalibriert ist. - Ich weiß nicht wirklich, wie ich Ihr Beispiel mit Messschiebern anwenden soll
John HK
1
ok, also "Genauigkeit" oder "Richtigkeit" gemäß Ihrer Referenz? Es sieht so aus, als würden Sie zuerst die Richtigkeit des Referenzgeräts unter der Annahme der für das Gerät angegebenen Genauigkeit bestimmen, dann Ihren Mittelwert auf dem Testgerät vergleichen, um die Richtigkeit zu bestimmen, und die Varianz berechnen, um die Genauigkeit zu bestimmen. Ich denke, die meisten von uns "Oldtimern" verwenden "Genauigkeit" für diese neuartige "Wahrhaftigkeit".
Carl Witthoft

Antworten:

2

Ihr Ansatz ist im Großen und Ganzen richtig.

Wenn Sie nur an der Genauigkeit Ihres Systems interessiert sind, möchten Sie wahrscheinlich so etwas wie den maximalen Fehler verwenden. Ihre Genauigkeit beträgt dann +/- Max. Fehler unter der Annahme, dass echte Fehler innerhalb dieses Bereichs gleichmäßig verteilt sind (eine gleichmäßige Verteilung ist häufig eine Überschätzung, ist jedoch eine einfache Option, wenn keine besseren Informationen verfügbar sind).

Dieser Ansatz führt jedoch häufig zu großen Fehlern aufgrund systematischer Effekte, die leicht korrigiert werden können, indem eine Kurve (normalerweise linear) durch die Darstellung von gemessenen und wahren Werten angepasst wird.

Dies sollte die Vorspannung in Ihrem Instrument korrigieren und Sie können dann die Unsicherheit basierend auf der Standardabweichung der Residuen berechnen. Die Gesamtunsicherheit ist normalerweise ein Vielfaches von , die Auswahl ist ziemlich willkürlich, daher sollten Sie das Vielfache (k-Wert) oder den zugehörigen Abdeckungsfaktor angeben. Sie sollten auch angeben, welche Verteilung Sie annehmen, da dies Auswirkungen auf das Vielfache hat eine bestimmte Abdeckung. ZB für eine Gaußsche 95% Bedeckung k ~ 2, aber für eine gleichmäßige Verteilung 95% Bedeckung k ~ 1,68σ

nivag
quelle
Wie Sie sagten, ist die Wahl willkürlich, aber gibt es einen gemeinsamen Standard? Ich bin oft auf Datenblätter gestoßen, auf denen gerade "Genauigkeit: + -Y" stand, ohne zu definieren, ob dies 2sigma, 3sigma usw. ist ...
John HK
σ
Nach meiner Erfahrung sind Datenblätter oft ein Durcheinander von unklaren Begriffen und schlecht definierten Werten (Verkaufsbroschen sind noch schlimmer).
Nivag
3

Die einzige Möglichkeit, die Genauigkeit zu bestimmen, mit der ein Messgerät Messungen liefert, besteht darin, es gegen ein Gerät mit bekannter Genauigkeit und bekannten Messfehlern zu kalibrieren.

Ihre Technik ist teilweise korrekt; Führen Sie die Fehlermessung nicht nur für die Grenzwerte des Geräts als eine Population oder einen Probenbehälter durch. Dies liegt daran, dass Messfehler nicht immer einheitlich sind.

Bei Messwerten zwischen 0 und 1 kann der Fehler beispielsweise -0,2 und bei Messwerten zwischen 2 und 3 +0,6 betragen. Ihre Tests müssen in Bereichen oder Bändern durchgeführt werden, unabhängig davon, ob die Einheiten mm (für Lineale), m / s (für Anemometer oder Tachometer) oder Pa (für Barometer) sind.

Für jeden Bereich / jedes Band bestimmen Sie den Fehler für diesen Bereich / dieses Band und wenden diesen Fehler dann auf die Messung an, die von dem Gerät durchgeführt wurde, das kalibriert werden musste.

Fred
quelle
Das wäre mit der Annahme, dass ich das Gerät kalibrieren möchte - was ich nicht wollte. Ich möchte es nur bewerten. Ich verstehe Ihr Beispiel und gehe noch einen Schritt weiter: Sie haben jetzt -0,2 Fehler für den ersten "bin", +0,6 Fehler für den zweiten und so weiter ... Wenn Sie das für den gesamten Bereich in zusammenfassen möchten eine einzelne Zahl, was benutzt du? Standardabweichung für alle Fehler?
John HK
Wie können Sie "bewerten", ohne gleichzeitig Informationen zu generieren, die eine Kalibrierung ermöglichen?
Carl Witthoft
@CarlWitthoft Nun, Sie generieren Informationen für die Kalibrierung, aber es ist möglicherweise nicht möglich, diese Informationen in das Gerät einzubetten oder dem Benutzer in einer anderen Form zur Verfügung zu stellen.
John HK
@CarlWitthoft thefreedictionary.com/calibrate stimmt nicht mit mir überein . Ich denke immer noch, dass es einen Unterschied zwischen der Bestimmung einer Genauigkeit und der Verbesserung eines Geräts durch die Bereitstellung dieser Informationen gibt, aber ich glaube nicht, dass wir Fortschritte machen, indem wir über diese Definition streiten.
John HK
1
"Die einzige Möglichkeit, die Genauigkeit zu bestimmen ... besteht darin, sie gegen ein Gerät mit bekannter Genauigkeit zu kalibrieren" ist nicht wahr. Wenn es so wäre, könnten wir unsere genauesten Geräte niemals kalibrieren. Um die Präzision von Instrumenten zu bestimmen, für die es kein genaueres Gerät gibt, vergleichen Sie es mit identischen Kopien von sich selbst (oder verwenden Sie physikalisches Denken).
Chris Mueller
1

Ich war in einem Team von Qualitätsingenieuren (aber nicht einer der Experten) und sie hatten ein Bild, in dem sie ein 2D-Diagramm verwendeten, in dem die X-Achse die erste Messung und Y die zweite Messung des gleichen beobachtbaren Merkmals war.

Sie würden die Messung / erneute Messung wiederholen und eine sogenannte "Wurstkarte" erstellen. Sie würden die äußeren 2% der Proben eliminieren und eine "Wurst" um den Rest ziehen.

Sie können die Qualität des Messsystems visuell sehen, indem Sie beobachten, wie nahe die Datenpunkte an der 45-Grad-Winkellinie liegen.

Baronz
quelle