Konfidenzintervall für Chi-Quadrat

10

Ich versuche eine Lösung zu finden, um zwei "Anpassungsgüte-Chi-Quadrat" -Tests zu vergleichen. Genauer gesagt möchte ich die Ergebnisse zweier unabhängiger Experimente vergleichen. In diesen Experimenten verwendeten die Autoren das Chi-Quadrat der Anpassungsgüte, um zufällige Schätzungen (erwartete Frequenzen) mit beobachteten Frequenzen zu vergleichen. Die beiden Experimente hatten die gleiche Teilnehmerzahl und die experimentellen Verfahren sind identisch, nur die Reize haben sich geändert. Die beiden Versuchsergebnisse zeigten ein signifikantes Chi-Quadrat (Exp. 1: X² (18) = 45; p <0,0005 und Exp. 2: X² (18) = 79; p <0,0001).

Nun möchte ich testen, ob es einen Unterschied zwischen diesen beiden Ergebnissen gibt. Ich denke, eine Lösung könnte die Verwendung von Konfidenzintervallen sein, aber ich weiß nicht, wie ich diese Konfidenzintervalle nur mit diesen Ergebnissen berechnen soll. Oder vielleicht ein Test zum Vergleich der Effektgröße (Cohens w)?

Hat jemand eine Lösung?

Vielen Dank!

FD

Florian
quelle
1
Hallo Florian. Warum nicht einen Permutationstest für den Unterschied zwischen den Chi-Quadraten verwenden?
Tal Galili
Hallo und danke für deine Antwort! Einfach, weil ich Permutationstests nicht wirklich kenne. Ist es möglich, Permutation nur mit zwei Chi-Quadrat-Werten durchzuführen (ich habe keine Rohdaten, nur die Ergebnisse)?
Florian

Antworten:

8

Die sehr begrenzten Informationen, die Sie haben, sind sicherlich eine schwerwiegende Einschränkung! Die Dinge sind jedoch nicht ganz hoffnungslos.

Unter den gleichen Annahmen, die zur asymptotischen Verteilung für die Teststatistik des gleichnamigen Anpassungstests führen, weist die Teststatistik unter der alternativen Hypothese asymptotisch eine nichtzentrale Verteilung auf. Wenn wir annehmen, dass die beiden Stimuli a) signifikant sind und b) den gleichen Effekt haben, haben die zugehörigen Teststatistiken die gleiche asymptotische nichtzentrale Verteilung. Wir können dies verwenden, um einen Test zu konstruieren - im Grunde genommen, indem wir den Nichtzentralitätsparameter schätzen und sehen, ob die Teststatistiken weit im Ende der nichtzentralen -Verteilung liegen. (Das heißt aber nicht, dass dieser Test viel Leistung haben wird.)χ 2 χ 2 λ χ 2 ( 18 , λ )χ2χ2χ2λχ2(18,λ^)

Wir können den Nichtzentralitätsparameter anhand der beiden Teststatistiken schätzen, indem wir ihren Durchschnitt nehmen und die Freiheitsgrade (eine Methode zur Schätzung von Momenten) subtrahieren, eine Schätzung von 44 ergeben oder die maximale Wahrscheinlichkeit:

x <- c(45, 79)
n <- 18

ll <- function(ncp, n, x) sum(dchisq(x, n, ncp, log=TRUE))
foo <- optimize(ll, c(30,60), n=n, x=x, maximum=TRUE)
> foo$maximum
[1] 43.67619

Gute Übereinstimmung zwischen unseren beiden Schätzungen, was angesichts zweier Datenpunkte und der 18 Freiheitsgrade nicht wirklich überraschend ist. Um nun einen p-Wert zu berechnen:

> pchisq(x, n, foo$maximum)
[1] 0.1190264 0.8798421

Unser p-Wert beträgt also 0,12, was nicht ausreicht, um die Nullhypothese zu verwerfen, dass die beiden Stimuli gleich sind.

Hat dieser Test tatsächlich (ungefähr) eine Ablehnungsrate von 5%, wenn die Nicht-Zentralitätsparameter gleich sind? Hat es irgendeine Kraft? Wir werden versuchen, diese Fragen zu beantworten, indem wir eine Leistungskurve wie folgt erstellen. Zunächst legen wir den Durchschnitt auf den geschätzten Wert von 43,68 fest. Die alternativen Verteilungen für die beiden Teststatistiken sind nicht zentral mit 18 Freiheitsgraden und Nichtzentralitätsparametern für . Wir simulieren 10000 Draws aus diesen beiden Verteilungen für jedes und sehen, wie oft unser Test beispielsweise bei einem Konfidenzniveau von 90% und 95% ablehnt.χ 2 ( λ - δ , λ + δ ) δ = 1 , 2 , , 15 δλχ2(λδ,λ+δ)δ=1,2,,15δ

nreject05 <- nreject10 <- rep(0,16)
delta <- 0:15
lambda <- foo$maximum
for (d in delta)
{
  for (i in 1:10000)
  {
    x <- rchisq(2, n, ncp=c(lambda+d,lambda-d))
    lhat <- optimize(ll, c(5,95), n=n, x=x, maximum=TRUE)$maximum
    pval <- pchisq(min(x), n, lhat)
    nreject05[d+1] <- nreject05[d+1] + (pval < 0.05)
    nreject10[d+1] <- nreject10[d+1] + (pval < 0.10)
  }
}
preject05 <- nreject05 / 10000
preject10 <- nreject10 / 10000

plot(preject05~delta, type='l', lty=1, lwd=2,
     ylim = c(0, 0.4),
     xlab = "1/2 difference between NCPs",
     ylab = "Simulated rejection rates",
     main = "")
lines(preject10~delta, type='l', lty=2, lwd=2)
legend("topleft",legend=c(expression(paste(alpha, " = 0.05")),
                          expression(paste(alpha, " = 0.10"))),
       lty=c(1,2), lwd=2)

was Folgendes ergibt:

Geben Sie hier die Bildbeschreibung ein

Wenn wir uns die wahren Nullhypothesenpunkte ansehen (x-Achsenwert = 0), sehen wir, dass der Test konservativ ist, da er nicht so oft abzulehnen scheint, wie es das Niveau anzeigen würde, aber nicht überwältigend. Wie wir erwartet haben, hat es nicht viel Kraft, aber es ist besser als nichts. Ich frage mich, ob es angesichts der sehr begrenzten Menge an verfügbaren Informationen bessere Tests gibt.

jbowman
quelle
Ich bin ein Neuling in diesem Bereich. Könnte ich Sie fragen, wie Sie das Skript (wenn es ein Skript war) von jbowman answer ausführen? In meinem Fall ein Versuch, den OP von 90% CI zu erhalten. Ich bin wirklich dankbar, wenn einer von Ihnen es mir erklären kann, und ich benutze PASW17
Hallo ash6. Tatsächlich ist es ein Skript für R-Software (für weitere Informationen: r-project.org ), keine Syntax für PASW17. Dieses Skript kann also direkt in der R-Konsole ausgeführt werden. Dieses Skript berechnet keine Konfidenzintervalle, sondern gibt Ihnen den p-Wert (hier genau> pchisq (x, n, foo $ Maximum ==> [1] p-Wert = 0,1190264), der dem Test einer Differenz zwischen den beiden Experimenten entspricht (hier zwischen zwei Stimuli, im Fall einer alternativen Hypothese), und hier können wir die Nullhypothese nicht ablehnen, dass die beiden Experimente die gleichen Ergebnisse lieferten.
Florian
3

Sie könnten das Cramer-V, das als Korrelation interpretiert werden kann, in ein Fisher-Z umwandeln, und dann ist das Konfidenzintervall dafür einfach (SE = 1 / sqrt (n-3): Z ± se * 1,96). Nachdem Sie die Enden des CI erhalten haben, können Sie sie wieder in r konvertieren.

Haben Sie darüber nachgedacht, alle Ihre Zählungen in eine Kontingenztabelle mit einer weiteren Dimension des Experiments aufzunehmen?

John
quelle
Ich dachte, es sei nicht möglich, ein Phi mit einem Pearson-Chi-Quadrat (1 Variable) zu verwenden. Deshalb habe ich über Cohens w gesprochen, aber Formeln sind wirklich ähnlich (phi = X² / n und w = sqrt (X² / n))! Aber wenn es möglich ist, mit diesem Test den Phi zu berechnen und die Transformation von r zu z anzuwenden, würden Sie uns eine Referenz zum Zitat geben? Wir möchten diesen Test in einem Artikel verwenden und nur wenige Rezensenten können mit Statistiken sehr wählerisch sein. Es wäre eine große Hilfe für uns! Zu Ihrer Frage: Wir haben nicht nur Rohdaten X²-Wert, df und p aus einem veröffentlichten Artikel. Vielen dank für Deine Hilfe!
Florian
Entschuldigung ... wollte Cramers V ablegen, nicht Phi. Cramers V kann wie Phi verwendet werden.
John
Und nein, ich habe kein Zitat. Wenn Sie einen großen Effekt haben, spielt es keine Rolle, ob diese Maßnahme ein wenig voreingenommen ist. Wenn Sie keinen großen Effekt haben, stellen Sie sicher, dass Sie aus der "Bedeutung" eines Tests keine großen Knochen machen.
John