Ich lese über Entscheidungsfehler beim Testen von Hypothesen. Meine Frage ist, warum ein "Typ-II-Fehler" überhaupt als Fehler angesehen wird. Soweit ich weiß, entsteht dies, wenn wir eine falsche Nullhypothese nicht ablehnen. Wenn wir die Nullhypothese nicht ablehnen, bedeutet dies einfach, dass wir keine starken Beweise haben, um sie abzulehnen. Wir machen keinen Kommentar darüber, welche der beiden Hypothesen wahr (oder falsch) ist - beides kann auch wahr sein. Wir sagen nicht, dass die Nullhypothese wahr ist. Warum wird eine solche Schlussfolgerung daher als Fehler bezeichnet?
quelle
Wie wir das Wort "Fehler" verwenden wollen, ist letztendlich eine semantische Frage, und vernünftige Leute könnten sich nicht darüber einig sein, ob und in welchem Sinne wir ein falsches Negativ als Fehler betrachten sollten .
quelle
Das Wort "Fehler" steht in der Nähe von "Fehler".
Für mich ist der Begriff Fehler sinnvoll, da Sie eine Wahrscheinlichkeit für das Auftreten berechnen können (vorausgesetzt, Sie legen eine bestimmte minimale Effektgröße fest, deren Erkennung wünschenswert wäre). Und Sie möchten diese Wahrscheinlichkeit in Situationen berechnen, in denen sie klein sein soll. In diesen Situationen wird der Fehler als Fehler angesehen.
Für mich ist es sehr symmetrisch mit Fehlern vom Typ I.
Wie bei p-Werten, die sich auf Fehler vom Typ I beziehen, können Sie auch die Wahrscheinlichkeit berechnen, dass die Nullhypothese (fälschlicherweise) nicht verworfen wird. Für eine bestimmte Effektgröße und einen bestimmten Test (z. B. Anzahl der Messungen) können Sie berechnen, mit welcher Wahrscheinlichkeit dieser „Fehler“ auftreten kann.
Diese Gedanken haben verlangen , dass Sie eine Grenze für die Nullhypothese festgelegt.
quelle