Wie vergleichen Bayesianer Verteilungen?

24

Ich denke also, dass ich die Grundlagen der frequentistischen Wahrscheinlichkeit und der statistischen Analyse (und wie schlecht sie verwendet werden können) gut verstehe. In einer frequentistischen Welt ist es sinnvoll, eine Frage wie "Unterscheidet sich diese Verteilung von jener Verteilung?" Zu stellen, da angenommen wird, dass Verteilungen real, objektiv und unveränderlich sind (zumindest für eine gegebene Situation) wie wahrscheinlich es ist, dass eine Probe aus einer Verteilung gezogen wird, die wie eine andere Probe geformt ist.

In der Bayesianischen Weltanschauung kümmern wir uns nur um das, was wir sind aufgrund unserer Erfahrungen in der Vergangenheit erwarten (ich bin in diesem Punkt noch ein bisschen vage, verstehe aber das Konzept der Bayes'schen Aktualisierung). Wenn dem so ist, wie kann ein Bayesianer dann sagen, dass sich dieser Datensatz von diesem Datensatz unterscheidet?

Für die Zwecke dieser Frage ist mir statistische Signifikanz oder ähnliches egal, nur wie man Unterschiede quantifiziert. Ich interessiere mich gleichermaßen für parametrische und nicht parametrische Verteilungen.

naught101
quelle
Können Sie klarstellen, was Sie unter "Dieser Datensatz unterscheidet sich von diesem Datensatz" verstehen? Beziehen Sie sich, wie in, auf den Vergleich von zwei oder mehr Gruppen, z. B. Einkommen von Männern und Einkommen von Frauen? Oder wie vergleicht ein Bayesianer zwei Stichproben von Einkommen ohne Kenntnis des Geschlechts?
Ramhiser
2
@ JohnA.Ramey: Was ist der Unterschied? Sind "männlich" und "weiblich" nicht nur Etiketten für Muster?
Naught101

Antworten:

12

Überlegen Sie sich Ihre Aussage als Frequentist und präzisieren Sie sie zuerst. Ein Frequentist konnte ohne weitere Klärung nicht sagen, dass "Datensatz A sich von Datensatz B unterscheidet".

Zunächst müssten Sie angeben, was Sie mit "anders" meinen. Vielleicht meinen Sie "unterschiedliche Mittelwerte haben". Andererseits könnten Sie "unterschiedliche Varianzen" meinen. Oder vielleicht noch etwas?

Dann müssten Sie angeben, welche Art von Test Sie verwenden würden, was davon abhängt, was Ihrer Meinung nach gültige Annahmen zu den Daten sind. Nehmen Sie an, dass beide Datensätze auf irgendeine Weise normalverteilt sind? Oder glauben Sie, dass beide Beta-Distributed sind? Oder etwas anderes?

Können Sie jetzt sehen, dass die zweite Entscheidung den Prioritäten in der Bayes'schen Statistik sehr ähnlich ist? Es ist nicht nur "meine vergangene Erfahrung", sondern es sind vernünftige Annahmen über meine Daten, an die ich glaube und an die meine Kollegen glauben werden. (Und Bayesianer können einheitliche Prioritäten verwenden, was die Dinge in Richtung häufigster Berechnungen treibt.)

EDIT: Als Antwort auf Ihren Kommentar: Der nächste Schritt ist in der ersten Entscheidung enthalten, die ich erwähnt habe. Wenn Sie entscheiden möchten, ob die Mittelwerte zweier Gruppen unterschiedlich sind, sollten Sie anhand der Verteilung der Differenz der Mittelwerte der beiden Gruppen feststellen, ob diese Verteilung auf einer bestimmten Vertrauensstufe Null enthält oder nicht. Wie genau Sie als Null gelten und welchen Anteil der (posterioren) Verteilung Sie verwenden, bestimmen Sie und das von Ihnen gewünschte Maß an Vertrauen.

Eine Diskussion dieser Ideen findet sich in einem Artikel von Kruschke , der auch ein gut lesbares Buch über Bayesianische Datenanalyse verfasst hat , das ein Beispiel auf den Seiten 307-309 "Sind verschiedene Gruppen gleich?" (Zweite Ausgabe: S. 468-472.) Er hat auch einen Blogeintrag zu diesem Thema mit einigen Fragen und Antworten.

WEITERE BEARBEITUNG: Ihre Beschreibung des Bayes'schen Prozesses ist ebenfalls nicht ganz korrekt. Die Bayesianer kümmern sich nur darum, was die Daten uns mitteilen, und zwar vor dem Hintergrund dessen, was wir unabhängig von den Daten wussten. (Wie Kruschke hervorhebt, muss das Prior nicht unbedingt vor den Daten stehen. Dies impliziert der Ausdruck, aber es ist in Wirklichkeit nur unser Wissen, das einige der Daten ausschließt.) Was wir unabhängig von einem bestimmten Satz von Daten wussten, kann vage oder spezifisch sein und kann auf Konsens basieren, ein Modell des zugrunde liegenden Datenerzeugungsprozesses, oder kann nur das Ergebnis eines anderen (nicht notwendigerweise vorherigen) Experiments sein.

Wayne
quelle
Ja, ok, Frequentisten nehmen eine Verteilung an, und das ist subjektiv. Aber dann können sie einfach die Parameter jeder Stichprobe mit Fehler messen und sagen: "OK, das sind die Parameter der wahren Grundgesamtheit jeder Stichprobe, und nun, wie hoch ist die Wahrscheinlichkeit, dass der Unterschied nur auf einen Stichprobenfehler zurückzuführen ist." Meine Frage bezieht sich auf den Schritt nach Ihrer Antwort - wie kann Bayesian auf Unterschiede zwischen Stichproben schließen (nehmen wir an, dass die Stichproben von derselben Art der Verteilung sind, parametrisch oder nicht).
Naught101
@ naught101: Bitte siehe meine Bearbeitung.
Wayne
@ Wayne das Papier, das Sie verlinkt haben, ist ausgezeichnet. Vielen Dank für das Teilen
Cam.Davidson.Pilon
@ naught101: Ich habe den Blog-Link aktualisiert. Offensichtlich hat er ältere Versionen des Artikels und jeden Link zu einer neueren aufbewahrt, und derjenige, mit dem ich zum ersten Mal verlinkt habe, ist in drei Versionen veraltet.
Wayne
Dies ist eine ziemlich coole Methode und macht deutlich, wie die Bayes'sche Inferenz funktionieren könnte (indem die Verteilungsparameter als Quelle der Unsicherheit behandelt werden). Schade, dass es so rechenintensiv ist. Die Verwendung von 95% CIs scheint ein bisschen zu viel wie das Festlegen eines Signifikanzniveaus zu sein, aber ich kann nicht sehen, ob es eine echte Möglichkeit gibt, ein meldepflichtiges Äquivalent eines p-Werts zu erhalten (möglicherweise die Summe der Wahrscheinlichkeiten von Werten mehr) Extremwert als 0 vom Mittelwert, für die Differenz der Mittelwerte?).
Naught101
14

Dieses Papier könnte von Interesse sein: http://arxiv.org/pdf/0906.4032v1.pdf

Es gibt eine schöne Zusammenfassung einiger häufig auftretender und bayesianischer Ansätze für das Zwei-Beispiele-Problem und erörtert sowohl die parametrischen als auch die nichtparametrischen Fälle.

Es könnte den anderen Antworten etwas hinzufügen, um ein einfaches Beispiel zu geben. Angenommen, Sie haben zwei Datensätze und y, in denen jedes x i und jedes y j istxyxiyj entweder eine 0 oder eine . Sie gehen von einem IId Bernoulli - Modell in beiden Fällen, so dass jeder x i ~ B e r n ( p ) und jeder y i ~ B e r n ( q ) . Ihre Hypothese Szenario testet in sowohl der frequentistischen und Bayes - Einstellungen können sein:1xiBern(p)yiBern(q)

H0:p=q

nicht unbedingt gleich.H1:p,q

Die Wahrscheinlichkeiten für die Daten sind jeweils:

Unter : L 0 ( p ) = f ( x , y ; pH0L0(p)=f(x,y;p)=ipi(1p)1ijpj(1p)1j

Unter : L 1 ( p , q ) = f ( x , y ; p , qH1L1(p,q)=f(x,y;p,q)=ipi(1p)1ijqj(1q)1j

H0q=p

W=2log{L0(pmax)L1(pmax,qmax)},

pmax,qmaxpqpmaxpmaxWχ12H0

pπ0H0p,qπ1H1

BF=f(x,y|H0)f(x,y|H1)=01L0(p)π0(p)dp0101L1(p,q)π1(p,q)dpdq.

The Bayes factor can be combined with some prior beliefs on the probability of H0 or H1 being true, to give the probability of H0 versus H1 after seeing the data. If we assume apriori that each hypothesis is equally likely, so p(H0)=p(H1)=1/2, then this gives:

p(H0|x,y)p(H1|x,y)=BF×p(H0)p(H1)=BF×1/21/2=BF.

Intuitively, if this ratio is >1, then the posterior probability of H0 is larger than H1, so you would say that H0 has a higher probability of being true under these assumptions for the prior and model.

One nice thing about the Bayes factor is how it automatically penalises more complex models (such as H1 here). A nice paper offering some more intuition is here: http://quasar.as.utexas.edu/papers/ockham.pdf.

Hope that helps along with the other answers already posted.

Sam Livingstone
quelle
0

Given data, how strongly do we believe that 2 groups do not come from the same population (H_1: they do not come from the same population vs H_0: they come from the same population). This can be done with a Bayesian t-test.

Complexity is used to figure out how much the prior is overlapping with one hypothesis. Fit is used to figure out how much the posterior is overlapping with one hypothesis. Combined you can compare the hypotheses and express your posterior belief in whether or not they come from the same population.

PascalVKooten
quelle