Kann mir jemand den Unterschied zwischen Fehlergrenzen und Konfidenzintervallen erklären? Im Internet sehe ich, dass diese beiden Bedeutungen synonym verwendet werden.
Ist es richtig zu sagen,
"Konfidenzintervalle werden als 1,96 angezeigt und in den Diagrammen als Fehlergrenzen angezeigt"?
confidence-interval
survey
polling
Mintuz
quelle
quelle
Antworten:
Das Internet ist voller Müll, wie wir alle wissen. Es ist hilfreich, maßgebliche Quellen zu finden und sich auf diese zu konzentrieren, um solche Probleme zu lösen. Eine von der American Statistical Association veröffentlichte Broschüre (Fritz Scheuren zugeschrieben und "gründlich aktualisiert um 1997") definiert die Fehlerquote als 95% -Konfidenzintervall (S. 64, rechts).
Vor diesem Hintergrund ist es überraschend, dass der Wikipedia-Artikel zur Fehlerquote eine andere Definition verwendet, obwohl er auf diese Broschüre verweist! Wikipedia schreibt,
Mit anderen Worten, für Wikipedia ist das MoE die Hälfte der maximalen Breite einer Reihe von Konfidenzintervallen (die möglicherweise eine Abdeckung von 95% aufweisen).
Wir haben diese Verwirrung (oder zumindest mangelnde Standardisierung) in Kommentaren an anderer Stelle auf dieser Website erörtert. Unsere Schlussfolgerung war, dass Sie klar sein müssen, was Sie unter "Fehlerquote" verstehen, wenn Sie diesen Begriff verwenden.
quelle
Es gibt keine allgemein anerkannte Konvention darüber, was eine "Fehlerquote" ist, aber ich denke (wie Sie beobachtet haben), dass sie am häufigsten als Radius eines Konfidenzintervalls verwendet wird , entweder in der ursprünglichen Skala der Schätzung oder als Prozentsatz einer Schätzung. Manchmal wird es als Synonym für den "Standardfehler" verwendet, daher müssen Sie darauf achten, dass andere verstehen, was Sie meinen, wenn Sie es verwenden.
Ein "Konfidenzintervall" hat eine universelle Konvention über seine Bedeutung. Grundsätzlich ist es der Bereich möglicher Schätzungen, die durch einen Schätzprozess generiert werden und in X% der Fälle (95% werden am häufigsten verwendet) den wahren Wert des zu schätzenden Parameters enthalten. Dieses Konzept eines "Prozesses", der X% der Zeit den wahren Wert erzeugen würde, ist etwas kontraintuitiv und darf nicht mit einem "Glaubwürdigkeitsintervall" aus der Bayes'schen Folgerung verwechselt werden, das eine viel intuitivere Definition hat, es aber ist nicht dasselbe wie das weit verbreitete Konfidenzintervall.
Ihr tatsächliches Angebot ist etwas chaotisch und muss wie beschrieben geringfügig korrigiert werden. Ich würde diese zusätzliche Verwendung des Wortes "Rand" vermeiden und "Fehlerbalken" bevorzugen. So:
"Konfidenzintervalle werden mit 1,96 multipliziert mit den relevanten Standardfehlern geschätzt und in den Diagrammen als Fehlerbalken angezeigt."
(Dies lässt die Frage außer Acht, ob dies eine gute Methode zur Berechnung von Konfidenzintervallen ist, die von Ihrem Modell usw. abhängt und nicht relevant ist.)
Abschließender Kommentar zur Terminologie - Ich mag "Standardfehler" nicht, was nur "Standardabweichung der Schätzung" bedeutet. oder "Stichprobenfehler" im Allgemeinen - ich denke lieber in Bezug auf Zufälligkeit und Varianz der Statistiken als in Bezug auf "Fehler". Aber ich habe oben den Begriff "Standardfehler" verwendet, weil er wohl so weit verbreitet ist.
quelle