Für einige Tests in R
gibt es eine Untergrenze für die p-Wert- Berechnungen von . Ich bin mir nicht sicher, warum es diese Nummer ist, ob es einen guten Grund dafür gibt oder ob es nur willkürlich ist. Viele andere Statistikpakete werden nur verwendet , daher ist dies ein viel höheres Maß an Präzision. Aber ich habe nicht zu viele Artikel gesehen, in denen oder gemeldet wurden .0.0001
Ist es eine gängige / bewährte Methode, diesen berechneten Wert zu melden, oder ist es typischer, etwas anderes (wie p < 0.000000000000001
) zu melden ?
...But I haven't seen too many papers reporting p<2.22⋅10−16....
Sehen Sie einige GWAS-Papiere , es gibt viele Papiere, die Ergebnisse für p-Werte in Hunderten zeigen, zB: Prostatakrebs-KLK-Region, p = 9x10 ^ -186.Antworten:
Es gibt einen guten Grund dafür.
Den Wert finden Sie über
noquote(unlist(format(.Machine)))
Wenn Sie sich die Hilfe ansehen, (
?".Machine"
):Es handelt sich im Wesentlichen um einen Wert, bei dessen Unterschreitung Sie ziemlich sicher sein können, dass der Wert numerisch bedeutungslos ist - da ein kleinerer Wert wahrscheinlich keine genaue Berechnung des Werts darstellt, den wir zu berechnen versucht haben. (Nach einer kleinen numerischen Analyse, die davon abhängt, welche Berechnungen von der spezifischen Prozedur durchgeführt wurden, besteht eine gute Chance, dass numerische Bedeutungslosigkeit darüber hinausgeht.)
Aber die statistische Bedeutung ist schon viel früher verloren gegangen. Beachten Sie, dass p-Werte von Annahmen abhängen. Je weiter Sie bis zum äußersten Ende vordringen, desto stärker wird der wahre p-Wert (und nicht der von uns berechnete Nennwert) von den falschen Annahmen beeinflusst, in einigen Fällen sogar dann, wenn sie auftreten bist nur ein bisschen falsch. Da die Annahmen einfach nicht alle genau erfüllt sein werden, können mittlere p-Werte einigermaßen genau sein (in Bezug auf die relative Genauigkeit, möglicherweise nur um einen bescheidenen Bruchteil), aber extrem kleine p-Werte können um viele Größenordnungen ungenau sein Größe.
Das heißt, dass die übliche Praxis (so etwas wie das von Ihnen genannte "<0,0001" ist in Paketen üblich, oder die von Jaap in seiner Antwort erwähnte APA-Regel) wahrscheinlich nicht so weit von der sinnvollen Praxis entfernt ist, sondern der ungefähre Zeitpunkt, an dem die Dinge geschehen Die Bedeutung zu verlieren, außer zu sagen, dass es sehr, sehr klein ist , wird natürlich in Abhängigkeit von den Umständen sehr unterschiedlich sein.
Dies ist ein Grund, warum ich keine allgemeine Regel vorschlagen kann - es kann nicht eine einzige Regel geben, die auch nur aus der Ferne für alle geeignet ist -, die Umstände ein wenig zu ändern und die breite graue Linie, die den Wechsel von etwas Sinnvollem zu Relativem markiert bedeutungslos wird sich ändern, manchmal auf lange Sicht.
Wenn Sie genügend Informationen über die genauen Umstände bestimmen sind (zB es eine Regression ist, mit diesem viel Nicht - Linearität, dass Ausmaß der Änderung in diesen unabhängigen Variablen, diese Art und Menge der Abhängigkeit in dem Fehlerterm, dass Art und Menge der Heteroskedastie, Aufgrund dieser Form der Fehlerverteilung) konnte ich für Sie 'wahre' p-Werte simulieren, um sie mit den nominellen p-Werten zu vergleichen, sodass Sie sehen konnten, wann sie zu unterschiedlich waren, als dass der nominelle Wert irgendeine Bedeutung hätte.
Aber das führt uns zum zweiten Grund, warum ich - selbst wenn Sie genügend Informationen angegeben haben, um die wahren p-Werte zu simulieren - selbst für diese Umstände keinen Grenzwert festlegen konnte.
Was Sie melden, hängt von den Vorlieben der Menschen ab - Ihrer und Ihrer Zielgruppe. Stellen Sie sich vor, Sie haben mir genug über die Umstände erzählt, um zu entscheiden, dass ich die Linie mit einem nominalen von 10 - 6 zeichnen möchte .p 10- 6
Schön und gut, denken wir vielleicht - außer Ihrer eigenen Präferenzfunktion (was für Sie richtig aussieht, war, dass Sie den Unterschied zwischen den nominalen p-Werten, die von Statistikpaketen angegeben werden, und denjenigen, die sich aus der Simulation ergeben, betrachten, wenn Sie eine bestimmte Menge annehmen Englisch: www.mjfriendship.de/en/index.php?op...=view&id=167 (bei fehlgeschlagenen Annahmen) könnte es auf und die Redakteure des Journals, das Sie einreichen möchten, könnten ihre pauschale Regel auf 10 - 4 abschneiden lassen , während das nächste Journal es auf 10 - 3 setzen könnte und Als nächstes gibt es möglicherweise keine allgemeine Regel und der von Ihnen angegebene Editor akzeptiert möglicherweise noch niedrigere Werte als die von mir angegebenen.10- 5 10- 4 10- 3
Wie schlage ich bei fehlendem Wissen über ihre bevorzugten Funktionen und Regeln und fehlendem Wissen über Ihre eigenen Dienstprogramme eine allgemeine Auswahl der zu ergreifenden Maßnahmen vor?
Zumindest kann ich Ihnen sagen, was ich mache (und ich schlage nicht vor, dass dies eine gute Wahl für Sie ist):
Das ist sicherlich hilfreich, um eine Auswahl zu informieren - aber ich werde die Ergebnisse der Simulation wahrscheinlich ebenso diskutieren wie sie zur Auswahl eines Grenzwerts verwenden, um anderen die Möglichkeit zu geben, ihren eigenen zu wählen.
Eine Alternative zur Simulation besteht darin, einige Prozeduren zu betrachten, die gegenüber den verschiedenen potenziellen Fehlern der Annahme robuster sind * und festzustellen, wie viel Unterschied zum p-Wert daraus werden kann. Ihre p-Werte werden auch nicht besonders aussagekräftig sein, aber sie geben zumindest einen Eindruck davon, wie viel Einfluss sie haben könnten. Wenn einige von denen sehr unterschiedlich sind, gibt es auch eher eine Vorstellung davon, bei welchen Verstößen gegen Annahmen die Auswirkungen untersucht werden sollen. Auch wenn Sie keine dieser Alternativen angeben, ergibt sich ein besseres Bild davon, wie aussagekräftig Ihr kleiner p-Wert ist.
* Beachten Sie, dass wir hier keine Verfahren benötigen, die gegenüber groben Verstößen gegen eine bestimmte Annahme robust sind. diejenigen, die von relativ geringen Abweichungen der jeweiligen Annahme weniger betroffen sind, sollten für diese Übung in Ordnung sein.
Ich werde sagen, dass es in einigen Fällen überraschend sein kann, inwieweit selbst nicht so kleine p-Werte falsch sein können, wenn / wenn Sie zu solchen Simulationen kommen, selbst bei ganz leichten Verstößen. Dies hat mehr dazu beigetragen, die Art und Weise, wie ich einen p-Wert interpretiere, zu verändern, als die spezifischen Grenzwerte, die ich möglicherweise verwende, zu verschieben.
Wenn ich die Ergebnisse eines tatsächlichen Hypothesentests an ein Journal sende, versuche ich herauszufinden, ob sie eine Regel haben. Wenn nicht, neige ich dazu, mich selbst zu befriedigen und dann darauf zu warten, dass sich die Schiedsrichter beschweren.
quelle
Was allgemein üblich ist, hängt möglicherweise von Ihrem Forschungsgebiet ab. In dem Handbuch der American Psychological Association (APA), einem der am häufigsten verwendeten Zitierstile, heißt es (S. 139, 6. Auflage):
quelle
Solche extremen p-Werte treten häufiger in Bereichen mit sehr großen Datenmengen auf, wie z. B. Genomik und Prozessüberwachung. In diesen Fällen wird es manchmal als -log 10 (p-Wert) angegeben. Siehe zum Beispiel diese Abbildung aus der Natur , in der die p-Werte auf 1e-26 sinken.
-log 10 (p-Wert) wird von Statistikern, mit denen ich bei JMP zusammenarbeite, als "LogWorth" bezeichnet .
quelle
In R bedeutet "<2e-16" nicht wörtlich <2e-16, sondern, dass der Wert so klein ist, dass R ihn nicht aufzeichnen oder anzeigen kann.
Im Regressionstest wird p häufig kleiner als 4,940656e-324. Wenn "<2e-16" ausgegeben wird, ist dies eine Zahl, die noch kleiner als 4,940656e-324 ist
quelle
<2e-16
, der Wert ist als kleiner2e-16
, buchstäblich.format.pval
oder probieren Sie sie einfach ausformat.pval(1e-16)
.