Ich lese gerade über Bayes'sche Methoden in der Computation Molecular Evolution von Yang. In Abschnitt 5.2 geht es um Prioritäten und insbesondere um Nicht-informative, flache, vage, diffuse, konjugierte und hyperpriore Prioritäten.
Dies könnte zu einer übermäßigen Vereinfachung führen, aber könnte jemand einfach den Unterschied zwischen diesen Arten von Prioren erklären und wie sich dies auf das Ergebnis einer Analyse / Entscheidungen auswirkt, die ich während des Prozesses einer Bayes'schen Analyse treffen würde?
(Ich bin kein Statistiker und beginne gerade damit, Bayesianische Analysen zu lernen. Je mehr es für Laien gilt, desto besser.)
Auf der höchsten Ebene können wir uns alle Arten von Prioritäten vorstellen, indem wir eine bestimmte Menge an Informationen spezifizieren, die der Forscher auf die Analyse außerhalb der Daten selbst anwendet: Welche Parameterwerte sind vor dem Betrachten der Daten wahrscheinlicher?
In den dunklen Zeiten der Bayesianischen Analyse, als die Bayesianer mit Frequentisten kämpften, bestand die Überzeugung, dass der Forscher so wenig Informationen wie möglich über den Vorgänger in die Analyse einbringen wollte. Es wurde also viel recherchiert und diskutiert, um zu verstehen, wie ein Prior auf diese Weise "nicht informativ" sein kann. Heute spricht sich Gelman gegen die automatische Auswahl nicht-informativer Prioritäten aus, wie es in der Bayesian Data Analysis heißtdass die Beschreibung "nicht informativ" eher seine Haltung gegenüber dem Prior widerspiegelt als irgendwelche "besonderen" mathematischen Merkmale des Prior. (Außerdem gab es in der frühen Literatur eine Frage, in welchem Umfang ein Prior nicht aussagekräftig ist. Ich denke nicht, dass dies für Ihre Frage besonders wichtig ist, aber ein gutes Beispiel für dieses Argument aus einer häufigeren Perspektive finden Sie am Anfang von Gary King, Politische Methodik vereinheitlichen. )
Ein "flacher" Prior gibt einen einheitlichen Prior an, bei dem alle Werte im Bereich gleich wahrscheinlich sind. Auch hier gibt es Argumente dafür, ob diese wirklich nicht informativ sind, da die Angabe, dass alle Werte gleich wahrscheinlich sind, in gewisser Weise Informationen sind und empfindlich auf die Parametrisierung des Modells reagieren können. Flat Priors haben eine lange Geschichte in der Bayesianischen Analyse und reichen zurück bis nach Bayes und Laplace.
Ein "vager" Prior ist sehr diffus, wenn auch nicht unbedingt flach, und er drückt aus, dass ein großer Wertebereich plausibel ist, anstatt die Wahrscheinlichkeitsmasse auf einen bestimmten Bereich zu konzentrieren. Im Wesentlichen ist es ein Prior mit hoher Varianz (was auch immer "hohe" Varianz in Ihrem Kontext bedeutet).
Konjugierte Prioren haben die praktische Eigenschaft, dass sie, wenn sie mit der entsprechenden Wahrscheinlichkeit multipliziert werden, einen Ausdruck in geschlossener Form erzeugen. Ein Beispiel hierfür ist das Beta vor der Binomialwahrscheinlichkeit oder das Gamma vor der Poissonwahrscheinlichkeit. Es gibt hilfreiche Tabellen über das Internet und Wikipedia. Die exponentielle Familie ist in dieser Hinsicht äußerst praktisch.
Conjugate Priors sind aufgrund ihrer praktischen Eigenschaften häufig die "Standard" -Option für einige Probleme. Dies bedeutet jedoch nicht unbedingt, dass sie die "besten" sind, es sei denn, die Vorkenntnisse können über das Conjugate Prior ausgedrückt werden. Fortschritte in der Berechnung bedeuten, dass die Konjugation nicht mehr so hoch geschätzt wird wie früher (vgl. Gibbs-Stichprobe vs. NUTS), so dass wir ohne großen Aufwand leichter auf nicht konjugierte Prioritäten schließen können.
quelle