Ich habe mich gefragt, ob irgendjemand einen genauen Überblick über die Definitionen und Verwendungen von p-Werten, Signifikanzniveau und Typ-I-Fehler geben kann.
Ich verstehe, dass p-Werte definiert sind als "die Wahrscheinlichkeit, eine Teststatistik zu erhalten, die mindestens so extrem ist wie die, die wir tatsächlich beobachtet haben", während ein Signifikanzniveau nur ein willkürlicher Grenzwert ist, um festzustellen, ob der p-Wert signifikant ist oder nicht . Der Fehler vom Typ I ist der Fehler, dass eine Nullhypothese zurückgewiesen wurde, die wahr war. Ich bin mir jedoch nicht sicher, ob es einen Unterschied zwischen dem Signifikanzniveau und dem Fehler vom Typ I gibt. Sind sie nicht dasselbe?
Nehmen wir zum Beispiel ein sehr einfaches Experiment an, bei dem ich eine Münze 1000 Mal umlege und zähle, wie oft sie auf "Köpfen" landet. Meine Nullhypothese, H0, ist, dass Köpfe = 500 (unbefangene Münze) sind. Ich setze dann mein Signifikanzniveau auf Alpha = 0,05.
Ich werfe die Münze 1000 Mal und berechne dann den p-Wert. Wenn der p-Wert> 0,05 ist, kann ich die Nullhypothese nicht ablehnen. Wenn der p-Wert <0,05 ist, lehne ich die Nullhypothese ab.
Wenn ich dieses Experiment wiederholt durchführen würde, jedes Mal, wenn ich den p-Wert berechne und entweder die Nullhypothese ablehne oder nicht ablehne und zähle, wie viele ich abgelehnt habe / nicht abgelehnt habe, würde ich am Ende 5% der Nullhypothesen ablehnen Welche waren in Wirklichkeit wahr, ist das richtig? Dies ist die Definition von Typ-I-Fehler. Daher ist das Signifikanzniveau beim Fisher-Signifikanztest im Wesentlichen der Typ-I-Fehler aus dem Neyman-Pearson-Hypothesentest, wenn Sie wiederholte Experimente durchgeführt haben.
Was nun die p-Werte betrifft, wenn ich aus meinem letzten Experiment einen p-Wert von 0,06 erhalten hätte und mehrere Experimente durchgeführt und alle diejenigen gezählt hätte, für die ich einen p-Wert von 0 bis 0,06 erhalten hätte, hätte ich auch keinen 6% Wahrscheinlichkeit, eine echte Nullhypothese abzulehnen?
Sie erhalten hier gute Antworten von @MansT & @ gui11aume (jeweils +1). Lassen Sie mich sehen, ob ich in beiden Antworten etwas expliziter herausfinden kann.
Beim Arbeiten mit diskreten Daten sind nur bestimmte p-Werte möglich, und das Problem ist schlimmer mit weniger Möglichkeiten / kleineren Datensätzen. Stellen Sie sich zum Beispiel vor, Sie würden mal eine Münze . Die Wahrscheinlichkeit, eine bestimmte Anzahl von Köpfen , ist: Nehmen wir an, ein Forscher möchte's eine gegebene Münze (die eigentlich zu testen ist fair) für Fairness durch 10fache und Aufzeichnen der Anzahl der Köpfe Spiegel. Das heißt, die Nullhypothese ist hier wahr. Unser Forscher setztk p ( k ) = n !n k α=0,05
Dies zeigt, dass die Verwendung von langfristig zu einer Fehlerrate von Typ I mit zwei . Dies ist also eindeutig ein Fall, in dem . Wenn jedoch auf einen der obigen Werte ( anstelle von ) gesetzt würde, würde das Signifikanzniveau der Typ I-Fehlerrate entsprechen. Trotz dieses Problems ist der p-Wert hat die Typen - I - Fehlerrate in diesem Fall gleich. Beachten Sie, dass es hier kein Problem mit einer Nichtübereinstimmung zwischen einer diskreten Inferenzstatistik und einer kontinuierlichen Referenzverteilung gibt, da ich die exakte verwendet habe.021 α & ne; Typ - I - Fehler & alpha; .05α = 0,05 .021 α ≠ Typ I Fehler α .05 Binomialwahrscheinlichkeiten. Beachten Sie weiterhin, dass Situationen wie diese die Entwicklung des mittleren p-Werts veranlasst haben , um die Diskrepanz zwischen dem p-Wert und dem Signifikanzniveau zu minimieren.
Es kann Fälle geben, in denen der berechnete p-Wert nicht der langfristigen Fehlerrate des Typs I entspricht, zusätzlich zu der Tatsache, dass die Fehlerrate des Typs I nicht unbedingt dem Signifikanzniveau entspricht. Betrachten Sie eine 2x2-Kontingenztabelle mit diesen beobachteten Zählungen:
Wie soll ich nun den p-Wert für die Unabhängigkeit der Zeilen und Spalten berechnen? Es gibt viele Optionen (die ich hier diskutiere ). Ich beginne damit, die Statistik zu berechnen und sie mit ihrer Referenzverteilung zu vergleichen. das ergibt . Die Referenzverteilung ist jedoch stetig und daher nur eine Annäherung an das Verhalten dieser bestimmten (diskreten) Statistik. Wir können den genauen Test von Fisher verwenden, um die wahre Fehlerrate des Typs I zu bestimmen. dann bekomme ichχ2 χ 2 χ 2 p=0,56710,5637≠0,5671χ21= 1,3 , p = 0,248 χ2 χ2 p = 0,5671 . Wenn der p-Wert auf diese Weise berechnet wird, entspricht er der Fehlerrate vom Typ I, obwohl wir immer noch die Frage haben, ob einer der möglichen p-Werte genau 5% beträgt. Lassen Sie mich zugeben, dass ich ein wenig geschummelt habe, wenn ich die Yates-Korrektur für die Kontinuität verwendet hätte, hätte ich eine bessere Annäherung an die wahre Typ-I-Fehlerrate erhalten, aber es wäre immer noch nicht ganz richtig gewesen ( ). .5637 ≠ .5671
Hier geht es also darum, dass mit diskreten Daten:
Diese Probleme verschärfen sich, je kleiner Ihr . Soweit ich weiß, gibt es diese Probleme bei kontinuierlichen Daten nicht.N
(Obwohl die Frage nicht nach Lösungen für diese Probleme fragt), gibt es Dinge, die diese Probleme mindern:
quelle
Die Konzepte sind in der Tat eng miteinander verbunden.
Der p-Wert ist das niedrigste Signifikanzniveau, bei dem die Nullhypothese akzeptiert würde . So sagt es uns, "wie bedeutend" das Ergebnis ist.
quelle