Ich weiß ungefähr und informell, was ein Konfidenzintervall ist. Ich kann mich jedoch nicht mit einem wichtigen Detail auseinandersetzen: Laut Wikipedia:
Ein Konfidenzintervall sagt nicht voraus, dass der wahre Wert des Parameters mit einer bestimmten Wahrscheinlichkeit in dem Konfidenzintervall liegt, wenn die tatsächlich erhaltenen Daten vorliegen.
Ich habe auch ähnliche Punkte an mehreren Stellen auf dieser Site gesehen. Eine korrektere Definition, auch aus Wikipedia, ist:
Wenn Konfidenzintervalle über viele separate Datenanalysen von wiederholten (und möglicherweise unterschiedlichen) Experimenten erstellt werden, entspricht der Anteil solcher Intervalle, die den wahren Wert des Parameters enthalten, ungefähr dem Konfidenzniveau
Wieder habe ich ähnliche Punkte an mehreren Stellen auf dieser Site gesehen. Ich verstehe es nicht. Wenn unter wiederholten Versuchen, die Fraktion von berechneter Konfidenzintervalle , die die wahren Parameter enthalten ist , wie kann dann die Wahrscheinlichkeit , dass in dem Vertrauensintervall für das tatsächliche Experiment berechnet ist , etwas anderes als ? Ich suche in einer Antwort Folgendes:( 1 - α ) θ ( 1 - α )
Klarstellung der Unterscheidung zwischen der falschen und der korrekten Definition oben.
Eine formale, präzise Definition eines Konfidenzintervalls, die deutlich macht, warum die erste Definition falsch ist.
Ein konkretes Beispiel für einen Fall, in dem die erste Definition auf spektakuläre Weise falsch ist, auch wenn das zugrunde liegende Modell korrekt ist.
quelle
mu
und B) die Variabilität des Replikationsmittels ummu
. Die meisten Leute vergessen A: Das ursprüngliche CI muss nicht unbedingt herum konstruiert werdenmu
!Antworten:
Ich fand dieses Gedankenexperiment hilfreich, wenn ich über Konfidenzintervalle nachdachte. Es beantwortet auch Ihre Frage 3.
Sei und . Betrachten Sie zwei Beobachtungen von mit den Werten und , die den Beobachtungen und von , und lassen Sie und . Dann ist ein 50% Konfidenzintervall für (da das Intervall umfasst wenn oder , von denen jede Wahrscheinlichkeit ).Y = X + a - 1X∼U(0,1) Y=X+a−12 Y y1 y2 x1 x2 X y u = max ( y 1 , y 2 )yl=min(y1,y2) yu=max(y1,y2) a a x 1 < 1[yl,yu] a a x1>1x1<12<x2 1x1>12>x2 14
Wenn jedoch dann wissen wir , dass die Wahrscheinlichkeit , dass das Intervall enthält ist , nicht . Die Feinfühligkeit ist, dass ein -Konfidenzintervall für einen Parameter bedeutet, dass die Endpunkte des Intervalls (die Zufallsvariablen sind) mit einer Wahrscheinlichkeit von beiden Seiten des Parameters liegen, bevor Sie das Intervall berechnen , und nicht die Wahrscheinlichkeit des Parameters Innerhalb des Intervalls liegt nachdem Sie das Intervall berechnet haben . a11yu−yl>12 a 1 z%Z%Z%12 z% z% z%
quelle
Es gibt viele Probleme in Bezug auf Konfidenzintervalle, aber konzentrieren wir uns auf die Zitate. Das Problem liegt eher in möglichen Fehlinterpretationen als in einer Frage der Korrektheit. Wenn Leute sagen, dass ein Parameter eine bestimmte Wahrscheinlichkeit für etwas hat, denken sie, dass der Parameter eine Zufallsvariable ist. Dies ist nicht der Gesichtspunkt einer (klassischen) Konfidenzintervallprozedur, für die die Zufallsvariable das Intervall selbst ist und der Parameter bestimmt wird, nicht zufällig, noch unbekannt. Deshalb werden solche Aussagen häufig angegriffen.
Mathematisch , wenn wir lassen jedes Verfahren sein , die Daten abbildet auf Teilmengen des Parameterraums und wenn (egal , was der Wert des Parameters sein kann) die Behauptung definiert ein Ereignis , dann hat es per Definition eine Wahrscheinlichkeit für jeden möglichen Wert von . Wenn eine Konfidenzintervallprozedur mit der Konfidenz ist, wird angenommen, dass diese Wahrscheinlichkeit ein Infimum (über alle Parameterwerte) vonx = ( x i ) θ θ ∈ t ( x ) A ( x ) Pr θ ( A ( x ) ) , θ t 1 - α 1 - αt x=(xi) θ θ∈t(x) A(x) Prθ(A(x)) θ t 1−α 1−α . (Abhängig von diesem Kriterium wählen wir normalerweise Verfahren aus, die einige zusätzliche Eigenschaften optimieren, z. B. kurze oder symmetrische Konfidenzintervalle. Dies ist jedoch eine separate Angelegenheit.) Das schwache Gesetz der großen Zahlen rechtfertigt dann das zweite Zitat. Dies ist jedoch keine Definition von Konfidenzintervallen, sondern lediglich eine Eigenschaft, die sie haben.
Ich denke, diese Analyse hat Frage 1 beantwortet, zeigt, dass die Prämisse von Frage 2 falsch ist, und lässt Frage 3 streiten.
quelle
Ich würde die Definition von CIs nicht als falsch bezeichnen, aber sie können leicht falsch interpretiert werden, da es mehr als eine Definition der Wahrscheinlichkeit gibt. CIs basieren auf der folgenden Definition der Wahrscheinlichkeit (häufig oder ontologisch)
(1) Wahrscheinlichkeit eines Satzes = langfristiger Anteil der Zeit, in der dieser Satz als wahr angesehen wird, abhängig vom Datenerzeugungsprozess
Daher müssen Sie diese Definition der Wahrscheinlichkeit akzeptieren , um in der Verwendung eines CI begrifflich gültig zu sein . Wenn Sie dies nicht tun, ist Ihr Intervall aus theoretischer Sicht kein CI.
Aus diesem Grund wurde in der Definition der Wortanteil und NICHT die Wortwahrscheinlichkeit verwendet , um zu verdeutlichen, dass die Wahrscheinlichkeitsdefinition "Langzeithäufigkeit" verwendet wird.
Die wichtigste alternative Definition der Wahrscheinlichkeit (erkenntnistheoretisch oder Wahrscheinlichkeit als Erweiterung der deduktiven Logik oder Bayes'schen) ist
(2) Wahrscheinlichkeit eines Satzes = rationaler Grad der Annahme, dass der Satz wahr ist, abhängig von einem Wissensstand
Oft verwechseln die Menschen diese beiden Definitionen intuitiv und verwenden die Interpretation, die ihrer Intuition entspricht. Dies kann Sie in alle möglichen verwirrenden Situationen bringen (insbesondere, wenn Sie von einem Paradigma zum anderen wechseln).
Dass die beiden Ansätze oft zum gleichen Ergebnis führen, bedeutet, dass wir in einigen Fällen:
rationaler Grad der Annahme, dass der Satz wahr ist, abhängig von einem Wissensstand = langfristiger Anteil der Zeit, in der der Satz wahr ist, abhängig vom Datenerzeugungsprozess
Der Punkt ist, dass es nicht universell gilt , so dass wir nicht erwarten können, dass die beiden unterschiedlichen Definitionen immer zu den gleichen Ergebnissen führen. Wenn Sie also nicht tatsächlich die Bayes'sche Lösung erarbeiten und dann feststellen, dass es sich um dasselbe Intervall handelt, können Sie dem vom CI angegebenen Intervall nicht die Interpretation als Wahrscheinlichkeit geben, den wahren Wert zu enthalten. In diesem Fall ist das Intervall kein Konfidenzintervall, sondern ein glaubwürdiges Intervall.
quelle
RA Fisher hatte ein Kriterium für die Nützlichkeit von Konfidenzintervallen: Ein CI sollte keine "identifizierbaren Teilmengen" zulassen, die ein anderes Konfidenzniveau implizieren. In den meisten (wenn nicht allen) Gegenbeispielen gibt es Fälle, in denen identifizierbare Teilmengen mit unterschiedlichen Erfassungswahrscheinlichkeiten vorliegen.
In diesen Fällen können Sie entweder Bayes'sche Anrechnungsintervalle verwenden, um ein subjektives Gefühl dafür zu geben, wo sich der Parameter befindet, oder Sie können ein Wahrscheinlichkeitsintervall formulieren, um die relative Unsicherheit im Parameter angesichts der Daten widerzuspiegeln.
Ein Fall, der relativ widerspruchsfrei zu sein scheint, ist beispielsweise das zweiseitige normale Konfidenzintervall für den Populationsmittelwert. Unter der Annahme einer Stichprobe aus einer normalen Grundgesamtheit mit gegebenem Standard lassen die 95% CI keine identifizierbaren Untergruppen zu, die mehr Informationen über den Parameter liefern würden. Dies ist daran zu erkennen, dass der Stichprobenmittelwert eine ausreichende Statistik in der Wahrscheinlichkeitsfunktion darstellt - dh die Wahrscheinlichkeitsfunktion ist unabhängig von den einzelnen Stichprobenwerten, sobald der Stichprobenmittelwert bekannt ist.
Der Grund für unser subjektives Vertrauen in den 95% -symmetrischen CI für den Normalmittelwert ergibt sich weniger aus der angegebenen Erfassungswahrscheinlichkeit als vielmehr aus der Tatsache, dass der symmetrische 95% -CI für den Normalmittelwert das Intervall "höchste Wahrscheinlichkeit" ist, dh alle Parameterwerte innerhalb des Intervalls haben eine höhere Wahrscheinlichkeit als Parameterwerte außerhalb des Intervalls. Da die Wahrscheinlichkeit jedoch keine Wahrscheinlichkeit ist (im Sinne der Langzeitgenauigkeit), ist sie eher ein subjektives Kriterium (ebenso wie die Bayes'sche Verwendung von Prior und Wahrscheinlichkeit). Insgesamt gibt es unendlich viele Intervalle für den normalen Mittelwert mit einer Wahrscheinlichkeit von 95%, aber nur das symmetrische CI weist die intuitive Plausibilität auf, die wir von einer Intervallschätzung erwarten.
Aus diesem Grund impliziert das Kriterium von RA Fisher, dass die Erfassungswahrscheinlichkeit nur dann mit subjektivem Vertrauen gleichzusetzen ist, wenn keine dieser identifizierbaren Teilmengen zugelassen wird. Wenn Teilmengen vorhanden sind, hängt die Wahrscheinlichkeit der Abdeckung von den wahren Werten der Parameter ab, die die Teilmenge beschreiben. Um ein Intervall mit dem intuitiven Vertrauensniveau zu erhalten, müssten Sie den Intervall-Schätzwert an die entsprechenden Zusatzstatistiken anpassen, mit deren Hilfe die Teilmenge identifiziert werden kann. ODER Sie können auf Dispersions- / Mischungsmodelle zurückgreifen, was natürlich dazu führt, dass die Parameter als Zufallsvariablen interpretiert werden (auch bekannt als Bayes'sche Statistik). Auf jeden Fall haben Sie die Hoffnung aufgegeben, eine objektiv überprüfbare Wahrscheinlichkeit für die Richtigkeit zu finden.
Hoffe das hilft.
quelle
Aus theoretischer Sicht beruhen die Fragen 2 und 3 auf der falschen Annahme, dass die Definitionen falsch sind. Daher stimme ich in dieser Hinsicht der Antwort von @ whuber zu, und für die Antwort von @ whuber auf Frage 1 sind keine zusätzlichen Eingaben von mir erforderlich.
Aus praktischer Sicht kann ein Konfidenzintervall jedoch intuitiv definiert werden (Wahrscheinlichkeit, dass es den wahren Wert enthält), wenn es numerisch mit einem glaubwürdigen Bayes-Intervall identisch ist, das auf denselben Informationen basiert (dh einem nicht informativen Prior).
Aber das ist etwas entmutigend für den eingefleischten Anti-Bayesianer, denn um die Bedingungen zu überprüfen, unter denen sein CI die Interpretation erhält, die er / sie geben möchte, müssen sie die Bayesianische Lösung ausarbeiten, für die die intuitive Interpretation automatisch gilt!
Das einfachste Beispiel ist ein Konfidenzintervall für den normalen Mittelwert mit einer bekannten Varianz und einem posterioren glaubwürdigen Intervall .¯ x ± & sgr; Z α / 2 1 - α ¯ x ± & sgr; Z α / 21−α x¯¯¯±σZα/2 1−α x¯¯¯±σZα/2
Ich bin mir der Bedingungen nicht ganz sicher, aber ich weiß, dass für die intuitive Interpretation von CIs Folgendes wichtig ist:
1) Es gibt eine Pivot-Statistik, deren Verteilung unabhängig von den Parametern ist. (Gibt es exakte Pivots außerhalb der Normal- und Chi-Quadrat-Verteilungen?)
2) es gibt keine störenden Parameter (außer im Fall einer Schwenk Statistik, die eine der wenigen ist , genaue Weise ein Ärgernis Parameter zu handhaben hat , wenn machen CIs)
3) Für den interessierenden Parameter ist eine ausreichende Statistik vorhanden, und das Konfidenzintervall verwendet die ausreichende Statistik
4) Die Stichprobenverteilung der ausreichenden Statistik und die hintere Verteilung weisen eine gewisse Symmetrie zwischen der ausreichenden Statistik und dem Parameter auf. Im Normalfall ist die Stichprobenverteilung die Symmetrie in während .(& mgr;|¯x,σ)~N(¯x,σ(x¯¯¯|μ,σ)∼N(μ,σn√) (μ|x¯¯¯,σ)∼N(x¯¯¯,σn√)
Diese Bedingungen sind normalerweise schwer zu finden, und normalerweise ist es schneller, das Bayes'sche Intervall zu berechnen und es zu vergleichen. Eine interessante Übung könnte auch darin bestehen, die Frage zu beantworten: "Wofür ist mein CI auch ein glaubwürdiges Intervall?" Sie können einige versteckte Annahmen über Ihre CI-Prozedur entdecken, indem Sie sich dies vorher ansehen.
quelle
Dies ist etwas, das schwer zu verstehen sein kann:
Ein Konfidenzintervall bezieht sich auf das Stichprobenverfahren. Wenn Sie viele Stichproben nehmen und für jede Stichprobe ein Konfidenzintervall von 95% berechnen würden, würden Sie feststellen, dass 95% dieser Intervalle den Populationsmittelwert enthalten.
Dies ist beispielsweise für Qualitätsabteilungen in der Industrie nützlich. Diese Leute nehmen viele Proben und sind jetzt zuversichtlich, dass die meisten ihrer Schätzungen der Realität ziemlich nahe kommen werden. Sie wissen, dass 95% ihrer Schätzungen ziemlich gut sind, aber sie können das nicht über jede einzelne Schätzung sagen.
Vergleichen Sie dies mit Würfeln: Wenn Sie 600 (faire) Würfel würfeln würden, wie viele 6 würden Sie werfen? Ihre beste Schätzung ist * 600 = 100.16
Wenn Sie jedoch EINEN Würfel geworfen haben, ist es sinnlos zu sagen: "Es gibt eine Wahrscheinlichkeit von 1/6 oder 16,6%, dass ich jetzt eine 6 geworfen habe". Warum? Weil der Würfel entweder eine 6 oder eine andere Figur zeigt. Sie haben eine 6 geworfen oder nicht. Die Wahrscheinlichkeit ist also 1 oder 0. Die Wahrscheinlichkeit kann nicht .16
Wenn ein Bayesianer vor dem Wurf gefragt wird, wie hoch die Wahrscheinlichkeit ist, eine 6 mit EINEM Würfel zu werfen, antwortet er mit " " (basierend auf vorherigen Informationen: Jeder weiß, dass ein Würfel 6 Seiten und eine gleiche Chance hat von einem von ihnen fallen), aber ein Frequentist würde sagen "Keine Ahnung", weil Frequentismus nur auf den Daten basiert, nicht auf Prioritäten oder irgendwelchen externen Informationen.16
Wenn Sie nur eine Stichprobe (also ein Konfidenzintervall) haben, können Sie nicht sagen, wie wahrscheinlich es ist, dass der Mittelwert der Grundgesamtheit in diesem Intervall liegt. Der Mittelwert (oder ein beliebiger Parameter) ist entweder enthalten oder nicht. Die Wahrscheinlichkeit ist entweder 1 oder 0.
Es ist auch nicht korrekt, dass Werte innerhalb des Konfidenzintervalls wahrscheinlicher sind als solche außerhalb des Konfidenzintervalls. Ich habe eine kleine Illustration gemacht; alles wird in ° C gemessen. Denken Sie daran, dass Wasser bei 0 ° C gefriert und bei 100 ° C kocht.
Der Fall: In einem kalten See möchten wir die Temperatur des Wassers schätzen, das unter dem Eis fließt. Wir messen die Temperatur an 100 Orten. Hier sind meine Daten:
Die Temperaturen in diesem Konfidenzintervall sind definitiv NICHT wahrscheinlicher als die außerhalb des Konfidenzintervalls. Die Durchschnittstemperatur des fließenden Wassers in diesem See KANN NICHT kälter als 0 ° C sein, sonst wäre es nicht Wasser, sondern Eis. Ein Teil dieses Konfidenzintervalls (nämlich der Abschnitt von -0,8 bis 0) hat tatsächlich eine Wahrscheinlichkeit von 0% , den wahren Parameter zu enthalten.
Fazit: Konfidenzintervalle sind ein häufig anzutreffendes Konzept und basieren daher auf der Idee wiederholter Stichproben. Wenn viele Forscher Proben von diesem See entnehmen würden und alle diese Forscher Konfidenzintervalle berechnen würden, würden 95% dieser Intervalle den wahren Parameter enthalten. Für ein einziges Konfidenzintervall ist es jedoch unmöglich zu sagen, wie wahrscheinlich es ist, dass es den wahren Parameter enthält.
quelle
Okay, mir ist klar, dass bei der Berechnung eines 95% -Konfidenzintervalls für einen Parameter mit klassischen frequentistischen Methoden nicht mit einer Wahrscheinlichkeit von 95% gerechnet werden muss, dass der Parameter in diesem Intervall liegt. Und doch ... wenn Sie sich dem Problem aus Bayes-Perspektive nähern und ein zu 95% glaubwürdiges Intervall für den Parameter berechnen, erhalten Sie (unter der Annahme eines nicht informativen Prioritätsintervalls) genau dasselbe Intervall , das Sie mit dem klassischen Ansatz erhalten. Wenn ich also die klassische Statistik verwende, um das 95% -Konfidenzintervall für (sagen wir) den Mittelwert eines Datensatzes zu berechnen, besteht eine Wahrscheinlichkeit von 95%, dass der Parameter in diesem Intervall liegt.
quelle
Sie fragen nach dem Konfidenzintervall für Frequentisten . Die Definition (beachte, dass keines deiner 2 Zitate eine Definition ist! Nur Aussagen, die beide korrekt sind) ist:
Sie haben also ein Modell (erstellt unter Verwendung Ihrer beobachteten Daten) und seine geschätzten Parameter. Wenn Sie dann einige hypothetische Datensätze gemäß diesem Modell und diesen Parametern generieren würden, würden die geschätzten Parameter in das Konfidenzintervall fallen.
Tatsächlich betrachtet dieser häufig verwendete Ansatz das Modell und die geschätzten Parameter als fest vorgegeben und behandelt Ihre Daten als ungewiss - als Zufallsstichprobe vieler anderer möglicher Daten.
Dies ist wirklich schwer zu interpretieren und wird oft als Argument für die Bayes'sche Statistik verwendet ( was meiner Meinung nach manchmal wenig umstritten sein kann . Die Bayes'sche Statistik hingegen nimmt Ihre Daten als fest und behandelt Parameter als ungewiss. Die Bayes'schen glaubwürdigen Intervalle sind dann eigentlich intuitiv, wie man es erwarten würde: Bayesianische glaubwürdige Intervalle sind Intervalle, in denen bei 95% der reale Parameterwert liegt.
In der Praxis interpretieren viele Menschen die Intervalle der häufig auftretenden Konfidenzen genauso wie die Bayes-Intervalle, und viele Statistiker halten dies nicht für ein großes Problem - obwohl sie alle wissen, dass es nicht zu 100% korrekt ist. Auch in der Praxis unterscheiden sich die Intervalle für die Häufigkeit und das Bayes'sche Vertrauen / die Glaubwürdigkeit nicht wesentlich, wenn uninformative Bayes'sche Prioritäten verwendet werden .
quelle
Angenommen, wir befinden uns in einer einfachen Situation. Sie haben einen unbekannten Parameter und einen Schätzer von mit einer Ungenauigkeit um 1 (informell). Sie denken (informell), dass am häufigsten in .T θ θ [ T - 1 ; T + 1 ]θ T θ θ [T−1;T+1]
In einem realen Experiment beobachten Sie .T=12
Es ist natürlich, die Frage zu stellen "Angesichts dessen, was ich sehe ( ), wie hoch ist die Wahrscheinlichkeit ?". Mathematisch: . Jeder stellt diese Frage natürlich. Die Konfidenzintervalltheorie sollte diese Frage logisch beantworten. Aber das tut es nicht.T=12 θ∈[11;13] P(θ∈[11;13]|T=12)
Bayesianische Statistiken beantworten diese Frage. In der Bayes'schen Statistik kann man wirklich berechnen . Vor dem Experiment und dem Beobachten von müssen Sie jedoch ein Prior annehmen, bei dem es sich um eine Verteilung für . Beispielsweise :P(θ∈[11;13]|T=12) θ T
In der frequentistischen Statistik gibt es jedoch keine Prioritäten und daher gibt es so etwas wie nicht. Stattdessen sagen Statistiker so etwas wie: "Was auch immer ist, die Wahrscheinlichkeit, dass is ". Mathematisch: "P(θ∈...|T∈...) θ θ∈[T−1;T+1] 0.95 ∀θ,P(θ∈[T−1;T+1]|θ)=0.95
Damit :
Die Bayes'sche Aussage ist natürlicher. Am häufigsten wird die Aussage des Frequentisten spontan als die Aussage des Bayes fehlinterpretiert (von jedem normalen menschlichen Gehirn, das seit Jahren keine Statistik mehr praktiziert). Und ehrlich gesagt, machen viele Statistikbücher diesen Punkt nicht sehr deutlich.
Und praktisch?
In vielen üblichen Situationen ist die Tatsache, dass Wahrscheinlichkeiten, die durch frequentistische und bayesianische Ansätze erhalten werden, sehr nahe beieinander liegen. Das Verwirren der frequentistischen Aussage für den Bayesianer hat also wenig Konsequenzen. Aber "philosophisch" ist es ganz anders.
quelle