Hinweis: Falls es sich um ein Duplikat handelt, bitte im Voraus um Entschuldigung. Ich habe bei meiner Suche kein ähnliches q gefunden
Angenommen, wir haben einen wahren Parameter p. Ein Konfidenzintervall C (X) ist ein RV, das p enthält, beispielsweise 95% der Zeit. Nehmen wir nun an, wir beobachten X und berechnen C (X). Die übliche Antwort scheint zu sein, dass es falsch ist, dies so zu interpretieren, dass es eine "95% ige Chance gibt, p zu enthalten", da es "entweder p enthält oder nicht".
Nehmen wir jedoch an, ich wähle eine Karte oben auf einem gemischten Stapel aus und lasse sie verdeckt liegen. Intuitiv halte ich die Wahrscheinlichkeit, dass diese Karte das Pik-As ist, für 1: 52, obwohl sie in Wirklichkeit "entweder das Pik-As ist oder nicht". Warum kann ich diese Argumentation nicht auf das Beispiel des Konfidenzintervalls anwenden?
Oder wenn es nicht sinnvoll ist, von der "Wahrscheinlichkeit" zu sprechen, dass die Karte das Pik-As ist, da es "ist oder nicht" ist, würde ich immer noch mit einer Wahrscheinlichkeit von 51: 1 rechnen, dass es nicht das Pik-As ist. Gibt es ein anderes Wort, um diese Informationen zu beschreiben? Wie unterscheidet sich dieses Konzept von "Wahrscheinlichkeit"?
edit: Vielleicht, um klarer zu sein, aus einer Bayes'schen Interpretation der Wahrscheinlichkeit, wenn mir gesagt wird, dass eine Zufallsvariable p 95% der Zeit enthält, wenn man bedenkt, dass diese Zufallsvariable realisiert ist (und es keine anderen Informationen gibt, die zu bedingen sind) richtig zu sagen, die Zufallsvariable hat eine 95% ige Wahrscheinlichkeit, p zu enthalten?
edit: Nehmen wir auch an, der Frequentist sagt aus einer häufigen Interpretation der Wahrscheinlichkeit nichts wie "Es gibt eine Wahrscheinlichkeit von 95%, dass das Konfidenzintervall p enthält". Ist es für einen Frequentisten immer noch logisch, ein "Vertrauen" zu haben, dass das Vertrauensintervall p enthält?
Sei Alpha das Signifikanzniveau und sei t = 100-Alpha. K (t) ist das "Vertrauen" des Frequentisten, dass das Vertrauensintervall p enthält. Es ist sinnvoll, dass K (t) in t zunimmt. Wenn t = 100% ist, sollte der Frequentist (per Definition) die Gewissheit haben, dass das Konfidenzintervall p enthält, damit wir K (1) = 1 normalisieren können. In ähnlicher Weise ist K (0) = 0. Vermutlich liegt K (0,95) irgendwo dazwischen 0 und 1 und K (0,999999) ist größer. Inwiefern würde der Frequentist K anders betrachten als P (die Wahrscheinlichkeitsverteilung)?
quelle
Antworten:
Ich denke, viele konventionelle Berichte über diese Angelegenheit sind nicht klar.
Nehmen wir an, Sie nehmen eine Stichprobe der Größe und erhalten ein Konfidenzintervall von 95 % für p .100 95% p
Dann nehmen Sie eine weitere Stichprobe von , unabhängig von der ersten, und erhalten ein weiteres 95 % -Konfidenzintervall für p .100 95% p
Was sich ändert, ist das Konfidenzintervall; was sich nicht ändert ist .p Das bedeutet, dass man bei häufig verwendeten Methoden sagt, das Konfidenzintervall sei "zufällig", jedoch "fest" oder "konstant", dh nicht zufällig. Bei häufig vorkommenden Methoden wie der Methode der Konfidenzintervalle werden Wahrscheinlichkeiten nur zufälligen Dingen zugewiesen.p
Also ist und ( L , U ) ein Konfidenzintervall. ( L = "Unter" und U = "Ober".) Nehmen Sie eine neue Probe und L und U ändern sich, aber p nicht.Pr(L<p<U)=0.95 (L,U) L= U= L U p
Angenommen, Sie haben in einem bestimmten Fall und U = 43,61 . Bei häufigeren Methoden würde man der Aussage 40.53 < p < 43.61 keine Wahrscheinlichkeit zuweisen , außer einer Wahrscheinlichkeit von 0 oder 1 , da hier nichts zufällig ist: 40.53 ist nicht zufällig, p ist nicht zufällig (da es sich nicht ändert, wenn wir nehmen eine neue Stichprobe) und 43,61 ist nicht zufällig.L=40.53 U=43.61 40.53<p<43.61 0 1 40.53 p 43.61
In der Praxis verhalten sich Menschen so, als ob sie zu sicher wären , dass p zwischen 40,53 und 43,61 liegt . Und in der Praxis mag das oft Sinn machen. Aber manchmal nicht. Ein solcher Fall liegt vor, wenn Zahlen mit einer Größe von 40 oder mehr im Voraus als unwahrscheinlich bekannt sind oder wenn bekannt ist, dass sie sehr wahrscheinlich sind. Wenn man p eine vorherige Wahrscheinlichkeitsverteilung zuweisen kann , verwendet man das Bayes-Theorem, um ein glaubwürdiges Intervall zu erhalten, das sich vom Konfidenzintervall unterscheiden kann, weil man vorher weiß, in welchen Wertebereichen p liegt95% p 40.53 43.61 40 p p sind wahrscheinlich oder unwahrscheinlich. Es kann auch tatsächlich vorkommen, dass die Daten selbst - die Dinge, die sich ändern, wenn eine neue Stichprobe gezogen wird - Ihnen sagen können, dass wahrscheinlich nicht so groß ist wie 40 oder mit Sicherheit auch nicht . Dies kann auch in Fällen passieren, in denen das Paar ( L , U ) eine ausreichende Statistik für p ist . Dieses Phänomen kann in einigen Fällen durch die Fisher-Methode der Konditionierung auf eine Hilfsstatistik behoben werden. Ein Beispiel für dieses letzte Phänomen ist , wenn die Probe von nur zwei unabhängigen Beobachtungen besteht , die in dem Intervall gleichmäßig verteilt sind & thgr; ± 1 / 2p 40 (L,U) p θ±1/2 . Dann ist das Intervall von der kleineren der beiden Beobachtungen zur größeren ein -Konfidenzintervall. Wenn der Abstand zwischen ihnen jedoch 0,001 beträgt , wäre es absurd, irgendwo in der Nähe von 50 % sicher zu sein, dass θ zwischen ihnen liegt, und wenn der Abstand 0,999 beträgt , wäre man vernünftigerweise fast 100 % sicher, dass θ zwischen ihnen liegt. Der Abstand zwischen ihnen wäre die Hilfsstatistik, unter der man bedingen würde.50% 0.001 50% θ 0.999 100% θ
quelle
Die Lehrbuchdefinition eines % -Konfidenzintervalls lautet:100×(1−α)
Die Wahrscheinlichkeit für Frequentisten ergibt sich aus dem Gedanken, "Zeit und Raum zurückzuspulen", um Befunde zu replizieren, als ob eine unendliche Anzahl von Kopien der Welt geschaffen worden wäre, um einen wissenschaftlichen Befund immer wieder zu bewerten. Eine Wahrscheinlichkeit ist also genau eine Frequenz. Für Wissenschaftler ist dies eine sehr bequeme Möglichkeit, Ergebnisse zu diskutieren, da das erste Prinzip der Wissenschaft darin besteht, dass Studien reproduzierbar sein müssen.
In Ihrem Kartenbeispiel besteht die Verwirrung für Bayesianer und Frequentisten darin, dass der Frequentist dem Nennwert der bestimmten Karte, die Sie aus dem Stapel geworfen haben , keine Wahrscheinlichkeit zuweist, während dies ein Bayesianer tun würde. Der Frequentist würde die Wahrscheinlichkeit einer Karte zuweisen , die von der Oberseite des zufällig gemischten Kartensatzes geworfen wurde. Ein Bayesianer ist nicht daran interessiert, die Studie zu replizieren. Sobald die Karte umgedreht ist, haben Sie eine 100% ige Überzeugung, was die Karte ist, und eine 0% ige Überzeugung, dass sie einen anderen Wert annehmen könnte. Für die Bayesianer ist die Wahrscheinlichkeit ein Maß für den Glauben.
Beachten Sie, dass Bayesianer nicht haben Vertrauen Intervalle aus diesem Grund, sie zusammenfassen Unsicherheit mit Glaubwürdigkeit Abständen.
quelle