Unter der Annahme, dass es sich um eine zugrunde liegende Beziehung zwischen zwei Variablen in einer OLS-Regression handelt [Nullhypothesentest], wie wirkt sich dann die Verdoppelung der Stichprobengröße auf den p-Wert aus? (unter der Annahme, dass die ursprüngliche Stichprobe repräsentativ für die Bevölkerung ist und die nachfolgende Stichprobe ebenfalls repräsentativ ist).
Natürlich ist mir bewusst, dass eine Erhöhung der Stichprobengröße den p-Wert verringern sollte, solange eine zugrunde liegende Beziehung besteht, aber ich bin daran interessiert, die Art der Beziehung zwischen p und n besser zu verstehen.
least-squares
power-analysis
Kyrenia
quelle
quelle
Antworten:
Für den T-Test haben wir Regeln wie "Durch Verdoppeln der Stichprobengröße wird die Teststatistik um erhöht ". Dies könnte Sie denken lassen, dass es eine einfache Beziehung zwischen Stichprobengröße und p-Wert gibt.2–√
Tatsächlich hängt die Beziehung zwischen Stichprobengröße und p-Wert von der Beziehung zwischen Stichprobengröße und Teststatistik und der Beziehung zwischen Teststatistik und p-Wert ab. Diese Beziehungen sind für jeden Test unterschiedlich.
Für den einfachsten Fall, den einseitigen Z-Test, können wir sehen, wie diese Beziehung aussieht. Angenommen, eine Zufallsvariable hat den Mittelwert und die Varianz . Nehmen wir an, wir testen, ob der Mittelwert von signifikant von abweicht . Die Teststatistik lautet .X μ σ2 X ν Z (x¯−ν)n√σ
Der p-Wert ist gleich eins minus der CDF der Statistik (dies setzt voraus, dass die Differenz zwischen den Mittelwerten positiv ist, ein ähnliches Argument funktioniert, wenn die Differenz negativ ist).Z
Für die Normalverteilung ist die CDF . Wobei erf (x) die Fehlerfunktion ist.Φ(t)=0.5+0.5⋅erf(x−μtσt2√)
Unter der Nullhypothese des gleichen Mittels hat die Statistik einen Mittelwert und eine Varianz . Die tatsächliche Verteilung von hat einen Mittelwert aus und Varianz .Z 0 1 Z (x¯−ν)n√σ 1
Die Effektgröße der Differenz zwischen den Mitteln ist . Rufen Sie die Effektgröße , dann wird der erwartete Wert von ist .(x¯−ν)σ b Z bn−−√
Für die CDF . Wobei erf (x) die Fehlerfunktion ist.Z Φ(z)=0.5+0.5⋅erf(z2√)
Natürlich ist die Statistik eine Zufallsvariable. Hier sehen wir uns nur die Beziehung zwischen Stichprobengröße und p-Wert für den erwarteten Wert von .Z Z
Daraus folgt, dass die CDF der StatistikZ Φ(z)=0.5+0.5⋅erf(bn√2√)
Dies ist die Beziehung zwischen dem p-Wert und der Stichprobengröße
Die Beziehung variiert entsprechend dem Wert von . Für sehr große wir eine Reihenerweiterung verwenden, um das Grenzverhalten zu sehen. Laut Wolfram Alpha ist das:n n
Das ist ein ziemlich schneller Abfall in Richtung 0. Es besteht eine große Abhängigkeit von der Effektgröße. Wenn der Unterschied zwischen den Mittelwerten größer ist, schrumpft der p-Wert natürlich schneller, wenn sich Ihre Abtastung verbessert.
Denken Sie auch hier daran, dass dies nur für den Z- und T-Test gilt und nicht für andere Tests.
quelle
Untersuchen wir zunächst den Einfluss auf den t-Wert . Wir können dann sofort auf die Auswirkung auf den p-Wert schließen.
Dies lässt sich am besten anhand eines ausgewählten Simulationsbeispiels veranschaulichen, das die wichtigsten Merkmale veranschaulicht. Da wir als falsch betrachten (und im Wesentlichen Eigenschaften in Bezug auf die Leistung berücksichtigen), ist es sinnvoll, sich auf einen einseitigen Test (in der "richtigen" Richtung) zu konzentrieren, da das Betrachten des falschen Endes nicht sichtbar ist viel Action und wird uns nicht viel von Interesse erzählen.H0
Hier haben wir also eine Situation (bei n = 100), in der der Effekt groß genug ist, dass die Statistik manchmal signifikant ist. Wir fügen dieser ersten Stichprobe dann eine zweite Zeichnung aus derselben kontinuierlichen Verteilung von x-Werten (hier gleichmäßig, aber für den beobachteten Effekt nicht kritisch) derselben Größe wie die erste hinzu, was zu einer Verdoppelung der Stichprobengröße führt, jedoch vollständig einschließlich der ersten Probe.
Was wir beobachten, ist nicht, dass der p-Wert sinkt, sondern dass er dazu neigt, zu sinken (mehr Punkte liegen über der diagonalen Linie als darunter); wir können sehen, dass die Variation der t-Werte abnimmt, so dass es im Bereich von 0 weniger gibt. Viele p-Werte steigen. Eine ganze Reihe von Proben, die nicht signifikant waren, wurden signifikant, wenn wir mehr Daten hinzufügten, aber einige, die signifikant waren, wurden unbedeutend.
[Hier betrachten wir die t-Statistik für den Steigungskoeffizienten in einer einfachen Regression, obwohl die Probleme qualitativ allgemeiner ähnlich sind.]
Ein Diagramm von p-Werten anstelle von t-Werten vermittelt im Wesentlichen die gleichen Informationen. Wenn Sie Markierungen in den richtigen Abständen auf den obigen Achsen platzieren, können Sie sie stattdessen mit p-Werten kennzeichnen ... aber oben (und rechts) werden niedrige p-Werte angezeigt und unten (/ links) markiert mit größeren p-Werten. [Das Zeichnen der p-Werte drückt einfach alles in die Ecke und es ist weniger klar, was los ist.]
quelle
Wenn die jeweilige Null falsch ist, erwarten Sie im Allgemeinen einen Abfall der p-Werte wie in der folgenden Abbildung, in der ich durchschnittliche p-Werte aus einer kleinen Simulationsstudie für ein Vielfaches von Stichproben mit einer Größeσu=0.5
n=25
vonbb*n=25
bisbb*n=29*25
für einen einfachen linearen Regressionskoeffizienten gleich anmelde bis 0,1 und Fehlerstandardabweichung von .Da die p-Werte von unten durch Null begrenzt sind, muss der Zerfall letztendlich abgeflacht werden.
Das 90% -Konfidenzintervall (schattierter blauer Bereich) zeigt an, dass darüber hinaus die Variabilität der p-Werte auch mit der Stichprobengröße abnimmt.
Wenn entweder kleiner oder größer ist, sind die p-Werte beim Erhöhen schneller nahe Null , so dass das Erscheinungsbild des Diagramms flacher wird.σu n
bb
Code:
quelle
log(p)
anstelle von sichp
selbst zeichnen würden .