Ich gebe zu, der Absatz könnte verwirrend sein.
Wenn Sie einen Permutationstest durchführen, schätzen Sie einen p-Wert. Das Problem ist, dass die Schätzung des p-Werts selbst einen Fehler aufweist, der als √ berechnet wird . Wenn der Fehler zu groß ist, ist der p-Wert unzuverlässig.p ( 1 - p )k- -- -- -- -- -√
Wie viele Permutationen k braucht man also, um eine verlässliche Schätzung zu erhalten?
Definieren Sie zuerst Ihren maximal zulässigen Fehler, auch bekannt als die Genauigkeit. Lassen Sie das sein . Dann muss ein geschätzter p-Wert im Intervall [ p - 3 ≤ P , p + 3 ≤ P ] liegen (da p ungefähr normalverteilt ist )P.[ p - 3 ∗ P., p + 3 ∗ P.]]
Verwendung der Obergrenze
Der zitierte Absatz des Papiers schlägt vor, 1 zu verwenden als Schätzung der oberen Grenze des Fehlers anstelle von√12 k√ . Dies entspricht einem unbekannten p-Wert von p = 0,5 (wobei der Fehler unter allen ps für ein festes k maximal ist).p ( 1 - p )k- -- -- -- -- -√
Also: Sie möchten wissen, wo .12 k√≤ P.
<=> 14 P.2≤ k
Da die zitierte Formel jedoch eine Obergrenze darstellt, ist dieser Ansatz sehr grob.
Verwendung des Fehlers auf dem Signifikanzniveau
α
α ( 1 - α )k- -- -- -- -- -√≤ P.
( α ( 1 - α ) )P.2≤ k
α[ p - 3 ∗ P., p + 3 ∗ P.]]
Verlängern des Konfidenzintervalls
Dieser Ansatz entspricht der Mitte des Konfidenzintervalls genau an der Entscheidungsschwelle. Um zu erzwingen, dass die Obergrenze des Konfidenzintervalls des geschätzten p unter der Entscheidungsschwelle liegt (was korrekter ist), benötigt man ...
l α ( 1 - α )k- -- -- -- -- -√≤ P.
( l )2( α ( 1 - α ) )P.2≤ k
wo l entspricht (siehe nochmal die Grafik )
| l | confidence interval |
| 1 | ~68 % |
| 2 | ~95 % |
| 3 | ~99 % |
Beispiele:
Die gewünschte Präzision P sei 0,005.
k > = 10000
α = 0,05k > = 7600
α = 0,01
Schließlich : Ich empfehle dringend, tiefer in Monte-Carlo-Simulationen einzutauchen. Die Wikipedia bietet einen Anfang.