Ich lese John Kruschkes Folien "Doing Bayesian Data Analysis" , habe aber tatsächlich eine Frage zu seiner Interpretation von t-Tests und / oder dem gesamten Nullhypothesen-Signifikanztest-Framework. Er argumentiert, dass p-Werte schlecht definiert sind, weil sie von den Absichten des Untersuchers abhängen.
Insbesondere gibt er ein Beispiel (Seite 3-6) für zwei Labore, in denen identische Datensätze erfasst werden, in denen zwei Behandlungen verglichen werden. Ein Labor verpflichtet sich, Daten von 12 Probanden zu sammeln (6 pro Bedingung), während das andere für eine feste Dauer Daten sammelt, was ebenfalls 12 Probanden ergibt. Nach den Dias, die kritische - Wert für p < 0,05 unterscheidet sich zwischen diesen beiden Datenerfassungssysteme: t krit = 2,33 für das ehemalige, aber t krit = 2,45 für das letztere!
Ein Blogbeitrag - den ich jetzt nicht finden kann - schlug vor, dass das Szenario mit fester Dauer mehr Freiheitsgrade hat, da sie Daten von 11, 13 oder einer anderen Anzahl von Probanden hätten sammeln können, während das Szenario mit festem N von Definition hat .
Könnte mir bitte jemand erklären:
Warum würde sich der kritische Wert zwischen diesen Bedingungen unterscheiden?
(Angenommen, es ist ein Problem) Wie würde man die Auswirkungen verschiedener Stoppkriterien korrigieren / vergleichen?
Ich weiß, dass das Einstellen der Stoppkriterien basierend auf der Signifikanz (z. B. Stichprobe bis ) die Wahrscheinlichkeit eines Fehlers vom Typ I erhöhen kann, aber das scheint hier nicht vor sich zu gehen, da keine der Stoppregeln vom Ergebnis von abhängt Die Analyse.
quelle
Ich habe endlich den Artikel gefunden, der mit den Dias zu tun hat : Kruschke (2010) , der hier auch direkt beim Autor (über CiteSeerX) erhältlich ist , da die Zeitschrift nicht weit verbreitet ist. Die Erklärung ist ein bisschen prosaisch, aber ich bin mir immer noch nicht sicher, ob ich sie kaufe.
Im Fall mit festem N wird der kritische Wert wie folgt berechnet: 2 N Stichproben werden zufällig aus der (gleichen) Grundgesamtheit gezogen und ein t- Wert berechnet. Dieser Vorgang wird mehrmals wiederholt, um eine Nullverteilung aufzubauen. Schließlich ist t c r i t das 95. Perzentil dieser Verteilung.t 2 N t tc r i t
Für den Fall der festen Dauer geht er davon aus, dass die Probanden eine mittlere Rate . Die Nullverteilung wird durch Wiederholen von zwei Schritten erstellt. Im ersten Schritt wird die Anzahl der Probanden für jede Bedingung N 1 und N 2 aus einer Possionsverteilung mit dem Parameter λ gezogen . Als nächstes werden zufällige N 1 - und N 2 -Ziehungen aus der Grundgesamtheit verwendet, um einen t- Wert zu berechnen . Dies wird viele Male wiederholt, und t C r i t gesetzt , um das 95. Perzentil der Verteilung dieser sein.λ N1 N2 λ N1 N2 t tc r i t
In der anderen Bedingung scheint es, dass die " " -ähnliche Verteilung tatsächlich eine Kombination von Proben aus vielen verschiedenen t- Verteilungen ist , abhängig von den spezifischen Ziehungen. Durch Setzen von λ = N könnte man die durchschnittlichen Freiheitsgrade auf 2 N - N bringen , aber das reicht nicht ganz aus. Zum Beispiel scheint der Durchschnitt der t- Verteilungen für ν = 1 und ν = 5 nicht die t- Verteilung mit 3 Freiheitsgraden zu sein.t t λ = N 2 N- N t ν= 1 ν= 5 t
Zusammenfassend:
quelle