Ich habe eine Tabelle mit paarweisen Vergleichen mit gepaarten t-Tests, die ich mit dem folgenden Code in R erstellt habe:
with(d_OAI, pairwise.t.test(OAI, Ven,p.adjust.method="bonferroni", paired=T))
Einige der p-Werte sind signifikant (dh weniger als 0,05), andere nicht. Einige der p-Werte sind jedoch gleich 1,00000. Ich nehme an, dies bedeutet, dass die beiden Dinge definitiv NICHT signifikant unterschiedlich sind, aber rundet dieses R von 0,9999 auf oder ist ein p-Wert von 1.000 sinnvoll?
Antworten:
Ich bin nicht genau mit den spezifischen R-Funktionen vertraut, aber wenn es eine Bonferroni-Korrektur gibt, glaube ich, dass dies wahrscheinlich die Erklärung ist. Angenommen, Sie haben zwei Hypothesen getestet und p = 0,6, 0,6 nicht angepasst. Die vereinfachte Bonferroni-Anpassung wäre 1,2, 1,2, aber da dies keine gültigen Wahrscheinlichkeiten sind, würde sie diese auf 1,0 und 1,0 kürzen.
quelle
stats:::p.adjust
bestätigt Ihre Überzeugung, dass die Funktion p-Werte abschneidet.Wenn die Daten diskret sind, ist es möglich, bei einem gepaarten t-Test einen exakten p-Wert von 1 zu erhalten, wenn die mittlere Differenz genau 0 ist.
Andernfalls kann ein Wert von weniger als 1 bei einer bestimmten Anzahl von signifikanten Zahlen als 1 angezeigt werden.
quelle
@ Cliff-ab hat bereits eine richtige Antwort gegeben. Wenn Sie weitere Informationen über die Bedeutung der erhaltenen p-Werte erhalten möchten, kann es hilfreich sein, daraus ein Histogramm zu erstellen (bevor Sie mehrere Tests korrigieren).
Insbesondere, wie von @ david-robinson in http://varianceexplained.org/statistics/interpreting-pvalue-histogram/ ausführlich beschrieben , können p-Werte nahe 1,0 darauf hinweisen, dass Sie möglicherweise einen einseitigen Test angewendet haben wollte einen zweiseitigen Test oder kann durch fehlende Werte in Ihren Daten verursacht werden, was die Testergebnisse verzerrt. Eine weitere Option (wie @ Cliff-AB erwähnt) ist die von Ihnen angewendete Bonferroni-Korrektur, die als plausibelste Ursache erscheint.
quelle