Wann (wenn überhaupt) ist ein frequentistischer Ansatz wesentlich besser als ein bayesianischer?

72

Hintergrund : Ich habe keine formelle Ausbildung in Bayes'scher Statistik (obwohl ich sehr daran interessiert bin, mehr zu lernen), aber ich weiß genug - glaube ich - um zu verstehen, warum viele das Gefühl haben, sie seien häufigen Statistiken vorzuziehen. Sogar die Studenten der Einführungsklasse Statistik (in den Sozialwissenschaften), die ich unterrichte, finden den Bayes'schen Ansatz ansprechend: "Warum sind wir daran interessiert, die Wahrscheinlichkeit der Daten angesichts der Null zu berechnen? Warum können wir die Wahrscheinlichkeit von nicht einfach quantifizieren? ? die Nullhypothese oder die alternative Hypothese Und ich habe auch gelesen , Themen wie diese , die auch die empirischen Vorteile der Bayes - Statistik belegen Aber dann kam ich durch Blasco über dieses Zitat (2001; Hervorhebung hinzugefügt).:

Wenn der Tierzüchter nicht an den philosophischen Problemen interessiert ist, die mit der Induktion verbunden sind, sondern an Werkzeugen zur Lösung von Problemen, sind sowohl bayesianische als auch frequentistische Inferenzschulen gut etabliert und es ist nicht notwendig zu rechtfertigen, warum die eine oder andere Schule bevorzugt wird. Mit Ausnahme einiger komplexer Fälle hat keiner von ihnen jetzt operative Schwierigkeiten. Die Wahl der einen oder der anderen Schule sollte sich darauf beziehen, ob es in einer Schule Lösungen gibt, die die andere nicht bietet , und wie leicht die Probleme gelöst werden können und wie wohl sich der Wissenschaftler mit den Ergebnissen der jeweiligen Ausdrucksweise fühlt.

Die Frage : Das Blasco-Zitat scheint darauf hinzudeuten, dass es Zeiten geben könnte, in denen ein frequentistischer Ansatz tatsächlich einem bayesianischen vorzuziehen ist. Ich bin also gespannt: Wann wäre ein frequentistischer Ansatz einem bayesianischen Ansatz vorzuziehen? Ich interessiere mich für Antworten, die die Frage sowohl konzeptionell (dh wann ist es besonders nützlich, die Wahrscheinlichkeit der von der Nullhypothese abhängigen Daten zu kennen?) Als auch empirisch (dh unter welchen Bedingungen zeichnen sich Frequentistische Methoden gegenüber Bayesianischen Methoden aus?) Angehen.

Es wäre auch vorzuziehen, die Antworten so zugänglich wie möglich zu machen - es wäre schön, einige Antworten in meine Klasse mitzunehmen, um sie mit meinen Schülern zu teilen (obwohl ich verstehe, dass ein gewisses Maß an Technik erforderlich ist).

Schließlich bin ich, obwohl ich regelmäßig Frequentist-Statistiken benutze, offen für die Möglichkeit, dass Bayesian auf ganzer Linie gewinnt.

jsakaluk
quelle
10
Wenn Sie sich mit objektiven Wahrscheinlichkeiten beschäftigen, also mit natürlich stochastischen Prozessen. Beispielsweise hat der radioaktive Zerfall nichts mit Ihren subjektiven Überzeugungen oder unbekannten Informationen oder so ziemlich allem anderen zu tun. Es geht nur in seinem eigenen Tempo und Atome brechen wirklich zufällig auf.
Aksakal
6
Sehen Sie sich diese kürzlich gestellte Frage an, die leider als zu umfassend abgeschlossen wurde (ich habe für die Wiedereröffnung gestimmt, aber sie war es nie): stats.stackexchange.com/questions/192572 . Sie fragen fast genau das Gleiche. Überprüfen Sie die Antwort dort.
Amöbe sagt Reinstate Monica
5
@Aksakal: Ich würde diese Diskussion gerne haben, aber sie ist nicht thematisch und wir werden davon in Kenntnis gesetzt, also halte ich den Mund (und berechne).
Amöbe sagt Reinstate Monica
12
"Bayesianer adressieren die Frage, an der jeder interessiert ist, indem sie Annahmen verwenden, an die niemand glaubt, während Frequentisten tadellose Logik verwenden, um mit einem Thema umzugehen, das niemanden interessiert" - Louis Lyons
Ruggero Turra
4
@jsakaluk, beachten Sie, dass die Hochburgen der Bayesianer Gebiete sind, in denen nicht genügend Daten vorliegen oder in denen die Prozesse instabil sind, z. B. in den Sozial-, Psudo- und Lebenswissenschaften. Zugegeben, Sie können dort auch Bayesianer sein, es ist nur Ihre Schlussfolgerungen werden nicht anders sein als die des Frequentisten
Aksakal

Antworten:

54

Hier sind fünf Gründe, warum Frequentisten Methoden bevorzugt werden können:

  • Schneller. Angesichts der Tatsache, dass die Bayes'schen Statistiken häufig fast identische Antworten auf häufig auftretende Fragen liefern (und wenn dies nicht der Fall ist, ist es nicht 100% klar, dass Bayes'sch immer der richtige Weg ist), ist die Tatsache, dass häufig auftretende Fragen oftmals um mehrere Größenordnungen schneller erfasst werden können ein starkes argument. Ebenso benötigen frequentistische Methoden nicht so viel Speicher, um die Ergebnisse zu speichern. Obwohl diese Dinge, insbesondere bei kleineren Datenmengen, etwas trivial erscheinen mögen, bedeutet die Tatsache, dass Bayesian und Frequentist in den Ergebnissen normalerweise übereinstimmen (insbesondere, wenn Sie viele informative Daten haben), dass Sie sich um die weniger wichtigen kümmern können, wenn Sie sich kümmern werden Dinge. Und natürlich, wenn Sie in der Big-Data-Welt leben, sind diese überhaupt nicht trivial.

  • Nichtparametrische Statistik. Ich erkenne, dass die Bayes'sche Statistik nicht-parametrische Statistiken enthält, aber ich würde argumentieren, dass die frequentistische Seite des Feldes einige wirklich unbestreitbare praktische Werkzeuge wie die empirische Verteilungsfunktion enthält. Keine Methode auf der Welt wird jemals die EDF, die Kaplan-Meier-Kurven usw. ersetzen (obwohl dies natürlich nicht das Ende einer Analyse bedeutet).

  • Weniger Diagnose. MCMC-Methoden, die gebräuchlichste Methode zum Anpassen von Bayes'schen Modellen, erfordern normalerweise mehr Arbeit für den Benutzer als sein häufigstes Gegenstück. Normalerweise ist die Diagnose für eine MLE-Schätzung so einfach, dass jede gute Algorithmusimplementierung dies automatisch tut (obwohl dies nicht bedeutet, dass jede verfügbare Implementierung gut ist ...). Daher lautet die häufig auftretende algorithmische Diagnose in der Regel "Stellen Sie sicher, dass beim Anpassen des Modells kein roter Text angezeigt wird". Angesichts der Tatsache, dass alle Statistiker über eine begrenzte Bandbreite verfügen, bleibt mehr Zeit für Fragen wie "Sind meine Daten wirklich ungefähr normal?". oder "Sind diese Gefahren wirklich verhältnismäßig?" usw.

  • Gültige Schlussfolgerung bei fehlerhafter Modellspezifikation. Wir haben alle gehört, dass "alle Modelle falsch sind, aber einige nützlich", aber verschiedene Forschungsbereiche nehmen dies mehr oder weniger ernst. Die Frequentist-Literatur enthält eine Fülle von Methoden zum Beheben von Inferenzen, wenn das Modell falsch spezifiziert ist: Bootstrap-Schätzer, Kreuzvalidierung, Sandwich-Schätzer (Link erläutert auch allgemeine MLE-Inferenzen unter Modellfehlspezifikation), verallgemeinerte Schätzungsgleichungen (GEEs), Quasi-Likelihood-Methoden, usw. Soweit ich weißIn der Bayes'schen Literatur gibt es sehr wenig über Inferenz unter Modellfehlspezifikation (obwohl die Modellprüfung, dh die posteriore Vorhersageprüfung, viel diskutiert wird). Ich denke, das ist kein Zufall: Um das Verhalten eines Schätzers bei wiederholten Versuchen beurteilen zu können, muss der Schätzer nicht auf einem "wahren" Modell basieren, sondern es muss ein Bayes-Theorem verwendet werden!

  • Freiheit vom Prior (dies ist wahrscheinlich der häufigste Grund, warum Menschen nicht für alles Bayes'sche Methoden anwenden). Die Stärke des bayesianischen Standpunkts wird oft als die Verwendung von Priors angepriesen. In allen Bereichen, in denen ich gearbeitet habe, wird jedoch die Idee eines informativen Vorgängers in der Analyse nicht berücksichtigt. Die Lektüre von Literatur zur Ermittlung von Prioritäten bei nichtstatistischen Experten liefert hierfür gute Gründe. Ich habe Zeitungen gelesen, in denen Dinge wie (grausamer Strohmann wie meine eigenen umschreiben) stehen sein in. Dieser Bereich ist normalerweise zu eng, also versuchen Sie willkürlich, sie dazu zu bringen, ihn ein wenig zu erweitern. Fragen Sie sie, ob ihre Überzeugung wie eine Gammaverteilung aussieht. Sie müssen wahrscheinlich eine Gammaverteilung für sie zeichnen und zeigen, wie es schwere Schwänze haben kann, wenn der Formparameter klein ist. Dazu gehört auch, dass erklärt wird, was ein PDF für sie ist. "(Anmerkung: Ich glaube nicht, dass selbst Statistiker wirklich genau sagen könnena priori, ob sie zu 90% oder zu 95% sicher sind, ob die Effektgröße in einem Bereich liegt, und dieser Unterschied kann einen wesentlichen Einfluss auf die Analyse haben!). Um ehrlich zu sein, ich bin ziemlich unfreundlich und es kann Situationen geben, in denen es etwas einfacher ist, Prioritäten zu setzen. Aber Sie können sehen, wie das eine Dose Würmer ist. Auch wenn Sie zu nicht informativen Prioritäten wechseln, kann dies ein Problem sein. bei der umwandlung von parametern kann das, was man leicht für nicht informative priors hält, plötzlich als sehr informativ angesehen werden! Ein weiteres Beispiel hierfür ist, dass ich mit mehreren Forschern gesprochen habe, die dies unerbittlich nicht tunmöchten hören, wie die Interpretation der Daten durch einen anderen Experten ist, da die anderen Experten empirisch zu zuversichtlich sind. Sie möchten lieber nur wissen, was aus den Daten des anderen Experten abgeleitet werden kann, und dann zu ihrer eigenen Schlussfolgerung kommen. Ich kann mich nicht erinnern, wo ich es gehört habe, aber irgendwo las ich den Satz "Wenn Sie ein Bayesianer sind, möchten Sie, dass jeder ein Frequentist ist". Ich interpretiere das so, dass theoretisch, wenn Sie ein Bayesianer sind und jemand seine Analyseergebnisse beschreibt, Sie zuerst versuchen sollten, den Einfluss seines Vorgängers zu beseitigen und dann herauszufinden, wie sich dies auswirken würde, wenn Sie Ihren eigenen verwendet hätten. Diese kleine Übung würde vereinfacht, wenn sie Ihnen ein Konfidenzintervall anstatt eines glaubwürdigen Intervalls gegeben hätte!

Wenn Sie auf informative Prioritäten verzichten, ist die Bayes'sche Analyse natürlich immer noch nützlich. Ich persönlich glaube, hier liegt der höchste Nutzen. Es gibt einige Probleme, die bei der Verwendung von MLE-Methoden nur sehr schwer zu lösen sind, aber mit MCMC recht einfach gelöst werden können. Aber meine Ansicht, dass dies Bayesians höchster Nutzen ist, beruht auf starken Prioren von meiner Seite, also nimm es mit einem Körnchen Salz.

Cliff AB
quelle
1
(+1) Gute Antwort, obwohl ich davon ausgehe, dass Sie nicht so viel Speicherplatz benötigen, um die Ergebnisse zu speichern?
jsakaluk
1
In Bezug auf die Freiheit von Prioren: Sagen Sie, je weniger Sie über Ihr Problem nachdenken und es verstehen müssen, desto besser? Ich kenne mehrere Softwareanbieter, die mit Ihnen sprechen möchten, sodass Sie mit einem Mausklick - oder besser mit einem Mausklick - auf alle vorstellbaren Probleme antworten können! Verdammt, Sie brauchen nicht einmal ein Problem, geben Sie einfach Ihre Daten auf ihre Website ein und sie werden alle möglichen Probleme finden und sie lösen, toot sweet! (Entschuldigung, ich konnte nicht widerstehen, mit einem grausamen Strohmann-ähnlichen Kommentar zu antworten.)
Wayne,
1
@ Wayne: Ich weiß, du machst Witze, aber das ist zu 100% richtig. Statistik ist ein Werkzeug zur Beantwortung von Problemen der realen Welt. Ich möchte wirklich betonen, dass es sich um ein Werkzeug und nicht um ein Endprodukt handelt. Unabhängig davon, auf welcher Seite sich das Argument "Frequentist vs Bayesian" durchgesetzt hat (ich setze mich auf die Seite "welche mir die beste Antwort auf meine Frage gibt", was bedeutet, dass ich beide für verschiedene Probleme mag), gibt es keine Argumentation, die die Benutzerfreundlichkeit betrifft ein sehr reales Dienstprogramm für jedes Werkzeug.
Cliff AB
Wenn Ihr Werkzeug häufig ein schreckliches Produkt produziert, ist das natürlich ein Problem. Und wenn ich überzeugt wäre, dass dies eine frequentistische Methode ist, eine bayesianische Methode jedoch nicht, würde ich die bayesianische Methode schnell befürworten.
Cliff AB
1
@CliffAB: Benutzerfreundlichkeit ist wichtig, und wie Sie sagen, wenn die Ergebnisse von gleicher Qualität sind, warum sollten Sie sich für eine schwierigere Verwendung entscheiden? Gleichzeitig ist das Nachdenken, Erklären und Verstehen von Prioritäten (nicht Bayesianisch, ich meine wörtlich die Prioritäten, die jeder Wissenschaftler, jedes Fach und jede Studie hat) für eine gute Wissenschaft von entscheidender Bedeutung. Die Bayes'schen Statistiken sind explizit und zwingen Sie, über einige dieser Probleme nachzudenken und sie zu verstehen. In dem Maße, wie dies nicht nur pedantische Unannehmlichkeiten sind, ist es wohl gut, und so ist das Gegenteil auch nicht gut.
Wayne
23

Einige konkrete Vorteile der frequentistischen Statistik:

  • Es gibt häufig geschlossene Lösungen für häufig auftretende Probleme, während Sie ein Konjugat benötigen, um eine geschlossene Lösung im Bayes'schen Analogon zu erhalten. Dies ist aus mehreren Gründen nützlich - einer davon ist die Rechenzeit.
  • Ein Grund, der hoffentlich irgendwann verschwindet: Laien werden in der Statistik der Frequentisten geschult. Wenn Sie von vielen verstanden werden wollen, müssen Sie häufig sprechen.
  • Ein Null-Hypothese-Signifikanz-Test (NHST) -Ansatz "Unschuldig bis nachweislich schuldig" ist nützlich, wenn das Ziel darin besteht, jemanden zu beweisen, der Unrecht hat (ich gehe von Ihrem Recht aus und zeige, dass die Daten überwältigend dafür sprechen, dass Sie Unrecht haben). Ja, es gibt NHST-Analoga auf Bayesianisch, aber ich finde die Frequentist-Versionen viel einfacher und interpretierbarer.
  • Es gibt nicht so etwas wie ein wirklich uninformativ vor , die manche Menschen unangenehm macht.
TrynnaDoStat
quelle
1
(+1) Danke - könntest du den ersten Punkt ein bisschen klarstellen? Als jemand, der sich mit Bayes nicht auskennt, geht mir der Punkt, den Sie über die Notwendigkeit eines "konjugierten Prior" (?)
Ansprechen
5
Ich glaube nicht, dass Sie den Frequentist-Hypothesentest richtig interpretieren. Sie haben gerade , aber der p-Wert ist tatsächlich . Die korrekte Interpretation des p-Werts: Wenn der Wert null ist, besteht nur eine Wahrscheinlichkeit von %, dass das Ergebnis als extrem oder extremer als das beobachtete Ergebnis eingestuft wird. Diese Fehlinterpretation wird häufig vorgebracht, wenn man für einen Bayes'schen Ansatz plädiert. Ansonsten gefällt mir deine Antwort. P ( D a t aP(H0|Data)αP(Data|H0)α
Zachary Blumenfeld
@ ZacharyBlumenfeld Danke für den Hinweis, ich hatte Bayesian im Kopf. Ich werde es jetzt reparieren.
TrynnaDoStat
1
@jsakaluk Wenn posterior und prior die gleiche Verteilung haben, wird der prior als konjugiert bezeichnet, was eine geschlossene Form posterior garantiert. Wenn unsere Daten beispielsweise Bernoulli sind und wir vorab eine Beta ( , ) ausgewählt haben, wissen wir, dass die posteriore Beta ist ( , ) ohne Simulation, Abtastung oder intensive Berechnung. αβα+i=1nxiβ+ni=1nxi
TrynnaDoStat
16

Der wichtigste Grund für die Verwendung von Frequentist-Ansätzen, der überraschenderweise noch nicht erwähnt wurde, ist die Fehlerkontrolle. Sehr oft führt die Forschung zu dichotomen Interpretationen (sollte ich darauf aufbauen oder nicht? Sollte eine Intervention durchgeführt werden oder nicht?). Frequentistische Ansätze ermöglichen Ihnen eine strikte Kontrolle Ihrer Typ 1-Fehlerrate. Bayes'sche Ansätze nicht (obwohl einige die universelle Bindung von Likelihood-Ansätzen übernehmen, können die Fehlerraten in kleinen Stichproben und mit relativ niedrigen Evidenzschwellen (z. B. BF> 3) recht hoch sein. Sie können die Frequentist-Eigenschaften von untersuchen Bayes-Faktoren (siehe z. B. http://papers.ssrn.com/sol3/papers.cfm?abstract_id=2604513), aber das ist immer noch ein häufiger Ansatz. Ich denke sehr oft, dass sich Forscher mehr mit Fehlerkontrolle beschäftigen als mit der Quantifizierung von Beweisen an sich (relativ zu einer bestimmten Hypothese), und ich denke zumindest, dass sich jeder in gewissem Maße für Fehlerkontrolle interessiert, und daher sollten die beiden Ansätze verwendet werden ergänzend.

Daniel Lakens
quelle
Guter Punkt. Ich denke auch an gruppensequenzielle Methoden und andere Formen des multiplen Testens, bei denen (aus meiner Sicht, die wesentliche Teile der Literatur übersehen haben mag) ein mangelndes Interesse auf der Bayes-Seite bestand (so) weit) in Bezug auf eine Art Fehlerkontrolle bekommen. Natürlich kontrollieren Bayes'sche Methoden - insbesondere bei etwas skeptischen Prioritäten oder einer Art Schrumpfung durch ein hierarchisches Modell - Fehler in einem nicht quantifizierbaren Ausmaß, aber auf der frequentistischen Seite wurde viel mehr nachgedacht.
Björn,
3
(+1) Mir gefällt dieser Punkt wirklich gut ... aus diesem Grund bin ich philosophisch gesehen ein Frequentist. Wenn wir Statistiken erstellen, um Rückschlüsse zu erleichtern, möchten wir, dass unsere Rückschlüsse genauer sind (dh weniger Fehler). als blindes Raten. Wenn es mir überhaupt wichtig ist, dass meine Schlussfolgerungen tatsächlich wahr oder falsch sind (im Sinne einer Validierung durch Folgestudien), sind die Fehlerquoten sehr wichtig. Ich kann mich mit der Bayes'schen Wahrscheinlichkeit nicht wohl fühlen (allerdings sind die Methoden selbst sehr nützlich als sinnvolle "regularisierte Schätzer" für eine Menge, wenn die Stichprobe klein ist ... denke Agresit-Coull)
Das klingt eher nach Entscheidungstheorie als nach Bayes / Frequentist-Vergleich. Auch mit Bayes - Ansatz , den Sie sich nicht um Stoppregeln kümmern muß .... Ich verstehe auch , dass bayes erreichen kann eine bessere „Balance“ zwischen Typ 1 und Typ - 2 - Fehlerraten ....
probabilityislogic
8

Ich denke, eine der größten Fragen, die Sie sich als Statistiker stellen müssen, ist, ob Sie an das Wahrscheinlichkeitsprinzip glauben oder daran festhalten wollen. Wenn Sie nicht an das Wahrscheinlichkeitsprinzip glauben, denke ich, dass das häufig vorkommende statistische Paradigma äußerst mächtig sein kann. Wenn Sie jedoch an das Wahrscheinlichkeitsprinzip glauben, dann müssen Sie (wie ich glaube) mit Sicherheit das Bayes'sche Paradigma in oder vertreten es nicht zu verletzen.


Für den Fall, dass Sie damit nicht vertraut sind, lautet das Likelihood-Prinzip wie folgt:

Das Likelihood-Prinzip : Beim Treffen von Schlussfolgerungen oder Entscheidungen übernachdem einige Datenbeobachtet wurden, sind alle relevanten experimentellen Informationen in der Likelihood-Funktion enthalten : wobeiden beobachteten Daten entspricht und somit feststeht.θx

(θ;x)=p(x|θ)
x

Wenn und zwei Stichprobenpunkte sind, so dass proportional zu ist, ist dies existiert eine Konstante so dassxy(θ;x)(θ;y)C(x,y)

(θ;x)=C(x,y)(θ;y)for all θ,

dann sollten die Schlussfolgerungen aus und identisch sein. \xy

Beachten Sie, dass die obige Konstante für verschiedene Paare , jedoch hängt nicht von .C(x,y)(x,y)C(x,y)θ

Im speziellen Fall von besagt das Wahrscheinlichkeitsprinzip, dass zwei Stichprobenpunkte, die dieselbe Wahrscheinlichkeitsfunktion ergeben, dieselben Informationen über . Das Likelihood-Prinzip geht jedoch noch weiter. Es besagt, dass auch wenn zwei Stichprobenpunkte nur proportionale Wahrscheinlichkeiten haben, sie äquivalente Informationen über .C(x,y)=1θθ


Nun, eine der Zeichnungen der Bayes'schen Statistik ist, dass das Bayes'sche Paradigma unter angemessenen Voraussetzungen niemals das Wahrscheinlichkeitsprinzip verletzt. Es gibt jedoch sehr einfache Szenarien, in denen das frequentistische Paradigma das Wahrscheinlichkeitsprinzip verletzt.

Hier ist ein sehr einfaches Beispiel basierend auf Hypothesentests. Folgendes berücksichtigen:

Stellen Sie sich ein Experiment vor, bei dem 12 Bernoulli-Versuche durchgeführt und 3 Erfolge beobachtet wurden. Abhängig von der Abbruchregel könnten wir die Daten wie folgt charakterisieren:

  • Binomialverteilung: und Daten:X|θBin(n=12,θ)x=3
  • Negative Binomialverteilung: und Daten:y = 12Y|θNegBin(k=3,θ)y=12

Und so würden wir die folgenden Wahrscheinlichkeitsfunktionen erhalten: was impliziert, dass und somit sollten wir nach dem Wahrscheinlichkeitsprinzip dieselben Schlussfolgerungen über aus beiden Wahrscheinlichkeiten ziehen.

1(θ;x=3)=(123)θ3(1θ)92(θ;y=12)=(112)θ3(1θ)9
1(θ;x)=C(x,y)2(θ,y)
θ

Stellen Sie sich nun vor, Sie testen die folgenden Hypothesen aus dem frequentistischen Paradigma

Ho:θ12versusHa:θ<12

Für das Binomialmodell haben wir Folgendes:

p-value=P(X3|θ=12)=(120)(12)12+(121)(12)12+(122)(12)12+(123)(12)12=0.0723

Beachten Sie, dass aber die anderen Ausdrücke es tun nicht das Wahrscheinlichkeitsprinzip erfüllen.(123)(12)12=1(12;x=3)

Für das Negative Binomial Modell haben wir folgendes:

p-value=P(Y12|θ12)=(112)(12)12+(122)(12)12+(132)(12)12+...=0.0375

Aus den obigen p-Wert-Berechnungen sehen wir, dass wir im Binomial-Modell nicht ablehnen würden, aber unter Verwendung des negativen Binomial-Modells würden wir ablehnen . Selbst wenn also , stimmen die p-Werte und die auf diesen p-Werten basierenden Entscheidungen nicht überein. Dieses p-Wert-Argument wird häufig von Bayesianern gegen die Verwendung von frequentistischen p-Werten verwendet.HoHo1(θ;x)2(θ;y)

Betrachten Sie nun noch einmal das Testen der folgenden Hypothesen, aber des Bayes'schen Paradigmas

Ho:θ12versusHa:θ<12

Für das Binomialmodell haben wir Folgendes:

P(θ12|x)=1/21π(θ|x)dx=1/21θ3(1θ)9π(θ)dθ/01θ3(1θ)9π(θ)dθ

In ähnlicher Weise haben wir für das Negative Binomial-Modell Folgendes:

P(θ12|y)=1/21π(θ|x)dx=1/21θ3(1θ)9π(θ)dθ/01θ3(1θ)9π(θ)dθ

nun unter Verwendung der Bayes'schen Entscheidungsregeln wenn (oder ein anderer Schwellenwert) und wiederholen Sie dies in ähnlicher Weise für .HoP(θ12|x)>12y

Allerdings und so erreichen wir die gleiche Schlussfolgerung und damit dieser Ansatz erfüllt das Likelihood-Prinzip.P(θ12|x)=P(θ12|y)


Und um zum Schluss zu kommen, wenn Sie sich nicht für das Wahrscheinlichkeitsprinzip interessieren, ist es großartig, häufig zu sein! (Wenn Sie nicht sagen können, ich bin ein Bayesianer :))

RustyStatistician
quelle
1
Ich schätze die klar nachdenkliche (und wahrscheinlich zeitaufwändige) Antwort, aber ich glaube, diese Antwort weicht ein wenig von dem "Antworten ... so zugänglich wie möglich ..." - Mandat der Frage ab.
jsakaluk
1
@jsakaluk Ich vermute, ich wollte das unterstützen, wenn Sie bereit sind, bestimmte Dinge zu übersehen, die viele angewandte Statistiker für selbstverständlich halten, dh das Wahrscheinlichkeitsprinzip, dann verwenden Sie Das frequentistische Paradigma kann eine viel einfachere Alternative zum bayesianischen Paradigma sein. Wenn dies jedoch nicht möglich ist, müssen Sie höchstwahrscheinlich Alternativen finden.
RustyStatistician
4
@RustyStatistician Das Wahrscheinlichkeitsprinzip ist ein zentraler Grundsatz für Wahrscheinlichkeitsforscher. Likelihoodists sind nicht Bayesian überhaupt . Ich habe in meiner Antwort Links gepostet. Ihre Behauptung "Wenn Sie an das Wahrscheinlichkeitsprinzip glauben, dann müssen Sie (glaube ich) mit Sicherheit das Bayes'sche Paradigma vertreten" ist falsch.
stan
@Stan Ich stimme dir zu, dass ja Likelihoodisten sicher an das Likelihood-Prinzip glauben. Es fällt mir jedoch sehr schwer zu glauben, dass Bayesianer, die an die Einhaltung des Wahrscheinlichkeitsprinzips glauben, nein sagen (das ist nur meine Meinung, dem muss man nicht zustimmen).
RustyStatistician
2
Die Rollen des Likelihood-Prinzips (LP), des Conditionality-Prinzips (CP) und des Sufficiency-Prinzips (SP) bei der Inferenz sind nicht einfach. Dies liegt daran, dass sich diese Prinzipien auf Beweise beziehen (wie von den Daten dargestellt), während die Inferenz das Überschreiten der Beweise beinhaltet . Dies ist immer riskant, aber notwendig, um Fortschritte zu erzielen. Siehe Birnbaums Theorem (hier besprochen): arxiv.org/abs/1302.5468
6

Sie und ich sind beide Wissenschaftler, und als Wissenschaftler interessieren wir uns hauptsächlich für Beweisfragen. Aus diesem Grund halte ich Bayes-Ansätze für vorzuziehen, wenn dies machbar ist.

Bayesianische Ansätze beantworten unsere Frage: Was ist die Beweiskraft für eine Hypothese gegenüber einer anderen? Frequentistische Ansätze hingegen tun dies nicht: Sie geben nur an, ob die Daten unter der Annahme einer Hypothese seltsam sind.

Das heißt, Andrew Gelman, der bekannte Bayesianer, scheint die Verwendung von p-Werten (oder p-Wert-ähnlichen grafischen Überprüfungen) als Überprüfung auf Fehler in der Modellspezifikation zu befürworten. Sie können eine Anspielung auf diesen Ansatz in diesem Blog-Beitrag sehen .

Sein Ansatz ist meines Erachtens ein zweistufiger Prozess: Zunächst stellt er die Bayes'sche Frage, was die Beweise für ein Modell gegenüber dem anderen sind. Zweitens fragt er den Frequentisten, ob das bevorzugte Modell angesichts der Daten überhaupt plausibel erscheint. Es scheint mir ein vernünftiger hybrider Ansatz zu sein.

CoolBuffScienceDude
quelle
1
Obwohl der Link zum Gelman-Blog weiterhin gültig sein sollte, wird er nach Mitternacht nicht "heute" sein. Entsprechend bearbeitet.
Nick Cox
8
Ich bin absolut anderer Meinung als die Feststellung, dass häufig auftretende Ansätze keine Evidenz messen und dass dies ausschließlich in der bayesianischen Welt der Fall ist. Sie lassen den Ursprung von Hypothesentests weg, z. B. den LR-Test, der die Evidenz einer Hypothese gegen die Evidenz der anderen misst.
Cliff AB
1
(+1) an @CliffAB - für alle, die über "frequentistische" Statistiken nachdenken, schauen Sie bitte nach "Likelihood Ratio", "Birnbaums Theorem" und lesen Sie vielleicht ein bisschen Royall. Man Argumente mit NHST - was den wissenschaftlichen Fortschritt trotz seiner vermeintlich katastrophalen Mängel nicht zu dämpfen schien. Das liegt daran, dass Statistiker keine kohlenstoffbasierten MINITAB-Programme sind Eigentlich ein Beruf, genau wie Medizin oder Wirtschaft oder Automechanik. Man kann nicht einfach ein Buch lesen, eine Formel ausprobieren und davon ausgehen, dass die Wahrheit in Ihrem Schoß landet.
2
@Bey: Persönlich glaube ich, dass p-Werte den wissenschaftlichen Prozess etwas gedämpft haben (Biologen sind gezwungen, Teilzeit-Statistiker zu werden, um Artikel zu veröffentlichen, und die Zeit zu verkürzen, in der sie Biologen werden), aber ich nicht Denken Sie nicht, dass die Alternativen zu p-Werten dieses Problem in irgendeiner Weise verringern! Ich bin der Meinung, dass das Problem der p-Werte nicht ihr theoretischer Hintergrund ist, sondern ihre Benutzerfreundlichkeit für Nicht-Statistiker. Die hinteren Wahrscheinlichkeiten (zum Beispiel) machen dieses spezielle Problem eher schlimmer als besser.
Cliff AB
2
@CliffAB konnte sich nicht mehr einigen ... dachte von dieser Seite nicht darüber nach ... aber das ist wohl nur die Art des Publizierens ... es sei denn, die Forschungsabteilungen können es sich leisten, Statistiker zu beschäftigen. Jedes statistische Tool kann von
6

Persönlich fällt es mir schwer, mir eine Situation vorzustellen, in der die häufigste Antwort einer bayesianischen vorgezogen wird. Mein Denken wird hier und in anderen Blogartikeln auf fharrell.com über Probleme mit p-Werten und Nullhypothesentests detailliert beschrieben . Frequentisten neigen dazu, einige grundlegende Probleme zu ignorieren. Hier ist nur ein Beispiel:

  • Außerhalb des linearen Gauß-Modells mit konstanter Varianz und in einigen anderen Fällen sind die berechneten p-Werte für Ihren Datensatz und Ihr Modell von unbekannter Genauigkeit
  • Wenn das Experiment sequentiell oder adaptiv ist, ist es häufig so, dass ein p-Wert nicht einmal berechnet werden kann und man nur ein Gesamt- Niveau einstellen kann , um es zu erreichenα
  • Frequentisten scheinen froh zu sein, den Fehler vom Typ I nicht unter 0,05 fallen zu lassen, egal wie groß die Stichprobe ist
  • Es gibt kein häufiges Rezept dafür, wie Multiplikationskorrekturen gebildet werden, was zu einem Ad-hoc-Hodge-Podge von Methoden führt

Was den ersten Punkt betrifft, so ist ein häufig verwendetes Modell das binäre Logistikmodell. Seine logarithmische Wahrscheinlichkeit ist sehr unquadratisch, und die überwiegende Mehrheit der für solche Modelle berechneten Konfidenzgrenzen und p-Werte ist nicht sehr genau. Vergleichen Sie dies mit dem Bayes'schen Logistikmodell, das genaue Schlussfolgerungen liefert.

Andere haben die Fehlerkontrolle als Grund für die Verwendung der frequentistischen Inferenz genannt. Ich halte dies nicht für logisch, da der Fehler, auf den sie sich beziehen, der langfristige Fehler ist und sich einen Prozess vorstellt, bei dem Tausende statistischer Tests durchgeführt werden. Ein Richter, der sagte "die langfristige Wahrscheinlichkeit einer falschen Verurteilung in meinem Gerichtssaal beträgt nur 0,03", sollte ausgeschlossen werden. Sie wird beschuldigt, die höchste Wahrscheinlichkeit zu haben, die richtige Entscheidung für den gegenwärtigen Angeklagten zu treffen . Andererseits ist Eins minus der hinteren Wahrscheinlichkeit eines Effekts die Wahrscheinlichkeit eines Null- oder Rückwärtseffekts und ist die Fehlerwahrscheinlichkeit, die wir tatsächlich benötigen.

Frank Harrell
quelle
2
"Es gibt kein häufiges Rezept dafür, wie Multiplikationskorrekturen gebildet werden, was zu einem Ad-hoc-Hodge-Podge von Methoden führt." Andererseits habe ich noch nie einen Bayesianer gesehen, der überhaupt Mehrfachkorrekturen vorgenommen hat. Andrew Gelman erklärt sogar stolz, dass er sie niemals benutzt. Ich habe zum Beispiel gesehen, dass Leute marginale 95% glaubwürdige Intervalle für , aber die gemeinsame Glaubwürdigkeit dieser Intervalle beträgt nicht 95%. Es ist auch nicht offensichtlich, wie dies am besten angegangen werden kann. Haben Sie Ratschläge oder Beispiele? θ1,,θkk
Zivilstand
5

Viele Menschen scheinen sich einer dritten philosophischen Schule nicht bewusst zu sein: Likelihoodism. Das Buch Likelihood von AWF Edwards ist wahrscheinlich der beste Ort, um sich darüber zu informieren. Hier ist ein kurzer Artikel, den er geschrieben hat.
Der Likelihoodismus meidet p-Werte wie der Bayesianismus, aber auch den oft zweifelhaften Prior des Bayesian. Auch hier gibt es eine Intro-Behandlung .

Stan
quelle
5
Es gibt einen algorithmischen Wahrscheinlichkeitsansatz von Vovk, der aus Kolmogorovs Ideen entwickelt wurde.
Aksakal
2
"Viele Menschen scheinen sich einer dritten philosophischen Schule nicht bewusst zu sein: Likelihoodism". Ich glaube nicht, dass dieser Satz 2016 zutrifft ...
Tim
4
@ Tim, obwohl jeder, den ich kenne, mit Frequentismus und Bayesianismus vertraut ist, habe ich noch nie jemanden getroffen , der von Likelihoodism gehört hatte. Der ursprüngliche Fragesteller scheint wie meine Kollegen zu sein, die im Frequentismus geschult wurden und sich zunehmend für den Bayesianismus interessieren. Vielleicht denken die meisten Leute, die meine Antwort oben gelesen haben, ich beziehe mich auf die Maximum-Likelihood-Schätzung oder teste Hypothesen unter Verwendung von Likelihood-Verhältnissen. Nee! Ich schlage vor , Yudi Pawitan und diesen Vortrag
stan
7
Keiner dieser Ansätze ist Religion, daher gibt es nicht viel zu glauben. Sie sind nur für bestimmte Probleme hilfreich, und einige Ansätze eignen sich besser für einige Probleme und andere für andere :)
Tim
1
(+1) für die Erwähnung der Wahrscheinlichkeitsschule und für den Kommentar zu Pawitan. Pawitans Buch "In All Likelihood" wurde durch die statistische Praxis dramatisch erweitert und erweitert ... Ich war mir auch nur bewusst, dass Bayes gegen Frequentismus. Er befasst sich mit vielen philosophischen und methodologischen Aspekten von Bayes, "klassischem" Frequentismus und deckt natürlich die reine Wahrscheinlichkeitsschule ab. Einfach ein großartiges Buch, um ein anspruchsvollerer Benutzer von Statistiken zu werden ... unabhängig von Ihren philosophischen Neigungen.
4

Wie TrynnaDoStats in seinem ersten Punkt feststellte, war einer der größten Nachteile häufig auftretender Ansätze für den Modellbau immer die Herausforderung, große geschlossene Lösungen umzukehren. Die Inversion einer geschlossenen Matrix erfordert, dass sich die gesamte Matrix im RAM befindet. Dies ist eine erhebliche Einschränkung bei Plattformen mit einer einzelnen CPU, die entweder große Datenmengen oder sehr kategoriale Merkmale aufweisen. Bayesianische Methoden konnten diese Herausforderung umgehen, indem sie zufällige Ziehungen von einem bestimmten Vorgänger simulierten. Dies war schon immer eines der größten Verkaufsargumente von Bayes-Lösungen, obwohl Antworten nur zu einem erheblichen Preis in der CPU erhalten werden.

Andrew Ainslie und Ken Train verglichen in einem Artikel von vor ungefähr 10 Jahren, auf den ich keinen Bezug mehr habe, eine endliche Mischung (die häufig oder geschlossen ist) mit Bayes'schen Ansätzen für den Modellbau und stellten fest, dass dies für eine breite Palette von funktionalen Formen gilt und Leistungsmetriken lieferten die beiden Methoden im Wesentlichen äquivalente Ergebnisse. Wo Bayes'sche Lösungen einen Vorteil hatten oder eine größere Flexibilität besaßen, gab es Fälle, in denen die Informationen sowohl spärlich als auch sehr hochdimensional waren.

Allerdings wurde das Papier vor dem geschrieben „Teile und Herrsche“ Algorithmen , die Nutzung der massiv - parallelen Plattformen entwickelt wurden, siehe zB Chen und Minge Papier für mehr über dieses http://dimacs.rutgers.edu/TechnicalReports/TechReports/2012/2012- 01.pdf

Das Aufkommen von D & C-Ansätzen hat dazu geführt, dass Bayes'sche Ansätze selbst für die haarigsten, spärlichsten und höchstdimensionalsten Probleme keinen Vorteil mehr gegenüber den häufigeren Methoden haben. Die beiden Methoden sind paritätisch.

Diese relativ junge Entwicklung ist in jeder Debatte über die praktischen Vor- oder Nachteile beider Methoden erwähnenswert.

Mike Hunter
quelle
Ich denke, das ist eine nette Ergänzung zur Diskussion (+1), aber ich finde es schwierig, dem zu folgen. Es verschiebt wirklich, wirklich, wirklich seine Pointe ... Vielleicht könntest du es ein bisschen umorganisieren? :)
usεr11852 sagt Reinstate Monic
@ user11852 Du sagst nicht, dass der Beitrag etwas Nützliches nicht kommuniziert, während du die Entwicklung der Logik nicht nach journalistischen Maßstäben findest. Da dieser Thread "Community" geworden ist, bin ich nicht zu geneigt (motiviert?), Daran zu arbeiten, ihn entsprechend Ihrem Vorschlag neu zu organisieren. Es kann so stehen wie es ist. Aber trotzdem danke für das Upvote und den Kommentar.
Mike Hunter
1.) Die Matrixinversion wird häufig für die MLE-Schätzung verwendet (was nur eine von vielen häufig verwendeten Methoden ist), jedoch nicht immer. Meine Arbeit in der MLE-Schätzung beinhaltet die Optimierung über oft bis zu Parameter (dh der Parameterraum kann linear mit der Stichprobengröße wachsen) und die Matrixinversion ist absolut keine Option ... aber ich optimiere immer noch die Wahrscheinlichkeit! 2.) In der Bayes'schen Statistik kommt es immer noch zu einer Matrixinversion, z. B. bei einem Block-Updater-Sampler. n
Cliff AB
@CliffAB Ich dachte an eine ANOVA-artige Inversion der Kreuzproduktmatrix.
Mike Hunter
@ DJohnson: Ich verstehe. Mein Punkt war jedoch, dass die Matrixinversion orthogonal zu den frequentistischen und bayesianischen Methoden ist. Beide Lager verwenden Werkzeuge, die in vielen ihrer Methoden etwas sehr Ähnliches bewirken (zumindest in Bezug auf die Rechenkosten).
Cliff AB
3

Frequentistische Tests konzentrieren sich auf die Verfälschung der Nullhypothese. Das Nullhypothese-Signifikanz-Testen (NHST) kann jedoch auch aus Bayes-Sicht durchgeführt werden, da NHST in jedem Fall einfach eine Berechnung von P (Observed Effect | Effect = 0) ist. Daher ist es schwierig, eine Zeit zu identifizieren, in der NHST aus einer häufigeren Perspektive durchgeführt werden müsste.

Trotzdem ist das beste Argument für die Durchführung von NHST mit einem frequentistischen Ansatz Leichtigkeit und Zugänglichkeit. Den Menschen werden häufigere Statistiken beigebracht. Daher ist es einfacher, ein häufig genutztes NHST zu betreiben, da es viel mehr statistische Pakete gibt, die dies einfach machen. Ebenso ist es einfacher, die Ergebnisse eines häufig auftretenden NHST zu kommunizieren, da die Menschen mit dieser Form des NHST vertraut sind. Ich sehe das als das beste Argument für häufig auftretende Ansätze: Zugang zu Statistikprogrammen, die diese ausführen, und einfache Kommunikation der Ergebnisse an Kollegen. Dies ist jedoch nur kulturell, so dass sich dieses Argument ändern könnte, wenn frequentistische Ansätze ihre Hegemonie verlieren.

Liz Page-Gould
quelle
5
Die Kommentare darüber, was Fisher dachte, scheinen hier überarbeitet zu sein, es sei denn, Sie können genaue Zitate vorlegen. Die Nullhypothese ist ein Instrument im Rahmen eines Signifikanztests, mit dem versucht wird, Wissenschaftler davon abzuhalten, Ergebnisse kleiner Stichproben zu stark zu interpretieren. Fisher war wie jeder andere daran interessiert, dass Wissenschaftler Statistiken verwenden sollten, um gute Wissenschaft zu leisten. Er war selbst ein sehr ernsthafter Beitrag zur Genetik.
Nick Cox
4
Ich stimme vollkommen zu, und so habe ich die Antwort überarbeitet, um die Spekulationen über Fischers mentalen Zustand zu beseitigen.
Liz Page-Gould
3

Einige Kommentare:

  • Der grundlegende Unterschied zwischen dem Bayesianer und dem Frequentist-Statistiker besteht darin, dass der Bayesianer bereit ist, die Wahrscheinlichkeitswerkzeuge auf Situationen auszudehnen, in denen der Frequentist dies nicht tun würde.

    • Insbesondere ist die Bayesianerin bereit, die Wahrscheinlichkeit zu verwenden, um die Unsicherheit in ihrem eigenen Verstand über verschiedene Parameter zu modellieren . Für den Frequentisten sind diese Parameter Skalare (wenngleich Skalare, bei denen der Statistiker den wahren Wert nicht kennt). Für den Bayesian werden verschiedene Parameter als Zufallsvariablen dargestellt! Das ist extrem anders. Die Unsicherheit des Bayesian über die Parameter valeus wird durch einen Prior repräsentiert .
  • In der Bayes'schen Statistik besteht die Hoffnung darin, dass nach der Beobachtung der Daten der hintere Teil den Prior überfordert und der Prior keine Rolle spielt. Dies ist jedoch häufig nicht der Fall: Die Ergebnisse können abhängig von der Wahl der Prioritäten sein! Verschiedene Bayesianer mit unterschiedlichen Priors müssen sich nicht auf den Posterior einigen.

Ein wichtiger Punkt, den man berücksichtigen sollte, ist, dass Aussagen des frequentistischen Statistikers Aussagen sind, auf die sich zwei Bayesianer einigen können, unabhängig von ihrer vorherigen Überzeugung!

Der Frequentist äußert sich nicht zu Vor- oder Nachhinein, sondern lediglich zur Wahrscheinlichkeit.

Die Aussagen des frequentistischen Statistikers sind in gewissem Sinne weniger ehrgeizig, aber die mutigeren Aussagen des Bayesianers können sich maßgeblich auf die Zuweisung eines Prior stützen. In Situationen, in denen Prioren eine Rolle spielen und in denen es zu Meinungsverschiedenheiten über Prioren kommt, können die eingeschränkteren, bedingten Aussagen der frequentistischen Statistik auf festerem Boden stehen.

Matthew Gunn
quelle
2

Das Ziel vieler Forschungen besteht nicht darin, eine endgültige Schlussfolgerung zu ziehen, sondern lediglich ein wenig mehr Beweise zu erhalten, um das Gefühl der Community für eine Frage schrittweise in eine Richtung zu lenken .

Bayesianische Statistiken sind unverzichtbar, wenn Sie eine Entscheidung oder Schlussfolgerung im Lichte der verfügbaren Beweise bewerten möchten. Qualitätskontrolle wäre ohne Bayes'sche Statistik nicht möglich. Jedes Verfahren, bei dem Daten erfasst und anschließend verarbeitet werden müssen (Robotik, maschinelles Lernen, Treffen von Geschäftsentscheidungen), profitiert von der Bayes'schen Statistik.

Aber viele Forscher tun das nicht. Sie führen einige Experimente durch, sammeln einige Daten und sagen dann "Die Daten weisen in diese Richtung", ohne sich wirklich zu viele Gedanken darüber zu machen, ob dies angesichts aller Beweise, die andere bisher gesammelt haben , die beste Schlussfolgerung ist. Wissenschaft kann ein langsamer Prozess sein und eine Aussage wie "Die Wahrscheinlichkeit, dass dieses Modell korrekt ist, beträgt 72%!" ist oft verfrüht oder unnötig.

Dies ist auch auf einfache mathematische Weise sinnvoll, da sich häufig herausstellt, dass die frequentistische Statistik mathematisch dem Aktualisierungsschritt einer Bayes'schen Statistik entspricht. Mit anderen Worten, während die Bayes'sche Statistik (Vorgängermodell, Evidenz) → Neues Modell lautet, ist die frequentistische Statistik nur eine Evidenz und überlässt es anderen, die beiden anderen Teile auszufüllen.

Owen
quelle
Obwohl ein Großteil dieses Beitrags interessant ist, besteht er aus vielen nicht unterstützten Meinungen. Bitte wenden Sie sich an unsere Hilfe, um zu erfahren, welche Arten von Antworten auf dieser Website erwartet werden.
Whuber
@whuber ich sehe. Ich habe ein Zitat hinzugefügt, an das ich mich auf Anhieb erinnern kann, aber für den Rest habe ich keine Zitate. Wenn es also zu nicht unterstützt erscheint, kann ich es löschen.
Owen
5
Ich bin überrascht, dass Sie die Qualitätskontrolle angesprochen haben, denn es scheint ein Bereich zu sein, in dem die häufige Interpretation der Wahrscheinlichkeit (relative Häufigkeit bei vielen Versuchen) sehr natürlich ist: Wenn die Fabrik korrekt arbeitet, wie wahrscheinlich ist es, dass wir so viele sehen (oder mehr) kaputte Widgets? Könnte ich Sie drängen, näher darauf einzugehen, was die Bayes'schen Statistiken für die Qualitätskontrolle besonders nützlich macht?
Matt Krause
@MattKrause Angenommen, unser Ziel ist es, fehlerhafte Widgets mit einer Rate <1% zu versenden. Wir wissen, dass die Fabrik fehlerhafte Widgets mit einer Rate von 10% produziert, und wir haben einen Test, dessen Typ-I- und Typ-II-Fehlerraten s und 1 / (sqrt (4 - 1 / s ^ 2)) sind, wobei s a ist Strenge Parameter. Was sollen wir für die Strenge verwenden?
Owen
2
Der Gedanke, dass die frequentistische Statistik Informationen aus aufeinanderfolgenden Studien nicht kombinieren kann, scheint das Feld der Metaanalysen zu ignorieren.
Cliff AB
2

Die tatsächliche Ausführung einer Bayes'schen Methode ist technischer als die eines Frequentisten. Mit "technischer" meine ich Dinge wie: 1) die Auswahl der Prioritäten, 2) das Programmieren Ihres Modells in einem BUGS / JAGS / STAN und 3) das Nachdenken über Sampling und Konvergenz.

Offensichtlich ist # 1 per Definition von Bayesian so gut wie nicht optional. Bei einigen Problemen und Vorgehensweisen kann es jedoch zu vernünftigen Standardeinstellungen kommen, die das Problem für den Benutzer etwas verschleiern. (Dies kann aber auch zu Problemen führen!)

Ob # 2 ein Problem ist, hängt von der verwendeten Software ab. Die Bayes'sche Statistik tendiert zu allgemeineren Lösungen als die häufigeren statistischen Methoden, und Tools wie BUGS, JAGS und STAN sind ein natürlicher Ausdruck davon. Es gibt jedoch Bayes'sche Funktionen in verschiedenen Software-Paketen, die wie das typische Verfahren für Frequentisten zu funktionieren scheinen. Dies ist also nicht immer ein Problem. (Und auch die jüngsten Lösungen wie die R - Pakete rstanarmund brmsdiese Lücke überbrücken.) Dennoch Verwendung dieser Tools ist sehr ähnlich wie die Programmierung in einer neuen Sprache.

Punkt 3 ist normalerweise anwendbar, da die Mehrheit der Bayesianischen Anwendungen in der Praxis die MCMC-Abtastung verwenden wird. (Auf der anderen Seite verwenden häufig verwendete MLE-basierte Verfahren eine Optimierung, die möglicherweise zu einem lokalen Minimum konvergiert oder überhaupt nicht konvergiert. Ich frage mich, wie viele Benutzer dies überprüfen sollten und nicht?)

Wie ich in einem Kommentar sagte, bin ich mir nicht sicher, ob die Freiheit von Vorgesetzten tatsächlich ein wissenschaftlicher Vorteil ist. Es ist sicherlich in mehrfacher Hinsicht und an mehreren Punkten des Veröffentlichungsprozesses praktisch, aber ich bin nicht sicher, ob es tatsächlich zu einer besseren Wissenschaft führt. (Und im Großen und Ganzen müssen wir uns alle unserer Vorgesetzten als Wissenschaftler bewusst sein, sonst leiden wir bei unseren Untersuchungen unter allen möglichen Vorurteilen, unabhängig davon, welche statistischen Methoden wir verwenden.)

Wayne
quelle
In Bezug auf (3) weisen viele klassische Statistikmodelle (dh GLMs) konkave Log-Wahrscheinlichkeiten auf, so dass es sehr selten vorkommt, dass Standardalgorithmen außerhalb extremer Eckfälle versagen sollten. In Bezug auf nicht konkave Probleme (dh NNs) sind dies (nicht zufällig) auch Probleme, bei denen klassische MCMC-Algorithmen schrecklich versagen, wenn sie nur ausgeführt werden Sagen wir, das Leben eines Menschen. Im Allgemeinen ist es jedoch weniger aufwändig, die MCMC zu reparieren als den Optimierungsalgorithmus!
Cliff AB
2

Konzeptionell : Ich weiß es nicht. Ich glaube, Bayesianische Statistiken sind die logischste Denkweise, aber ich kann nicht rechtfertigen, warum.

Der Vorteil von Frequentisten ist, dass es für die meisten Menschen in der Grundstufe einfacher ist. Aber für mich war es seltsam. Es dauerte Jahre, bis ich wirklich intellektuell klären konnte, was ein Konfidenzintervall ist. Aber als ich anfing, mich mit praktischen Situationen auseinanderzusetzen, schienen die Ideen der Frequentisten einfach und von hoher Relevanz zu sein.

Empirisch

Die wichtigste Frage, auf die ich mich heutzutage konzentrieren möchte, ist die praktische Effizienz: persönliche Arbeitszeit, Präzision und Rechengeschwindigkeit.

Persönliche Arbeitszeit: Bei grundlegenden Fragen verwende ich eigentlich fast nie Bayes'sche Methoden: Ich verwende grundlegende häufig verwendete Tools und bevorzuge immer einen T-Test gegenüber einem Bayes'schen Äquivalent, das mir nur Kopfschmerzen bereitet. Wenn ich wissen will, ob ich deutlich besser als meine Freundin bin, mache ich ein Chi-Quadrat :-). Tatsächlich sind häufig verwendete grundlegende Werkzeuge selbst bei ernsthafter Arbeit als Informatiker von unschätzbarem Wert, um Probleme zu untersuchen und zufällige Folgerungen zu vermeiden.

Präzision: Beim maschinellen Lernen, bei dem Vorhersage wichtiger ist als Analyse, gibt es keine absolute Grenze zwischen Bayesian und Frequentist. MLE ist ein häufiger Befürworter: nur ein Schätzer. Aber regularisiertes MLE (MAP) ist ein teilweise bayesianischer Ansatz : Sie finden den Modus des Seitenzahns und kümmern sich nicht um den Rest des Seitenzahns. Ich kenne keine häufige Rechtfertigung für die Verwendung von Regularisierung. In der Praxis ist die Regularisierung manchmal einfach unvermeidlich, da die rohe MLE-Schätzung so stark angepasst ist, dass 0 ein besserer Prädiktor wäre. Wenn Regularisierung als echte Bayes'sche Methode eingestuft wird, ist dies allein ein Grund dafür, dass Bayes mit weniger Daten lernen kann.

Rechengeschwindigkeit : Frequentistische Methoden sind am häufigsten rechenschneller und einfacher zu implementieren. Und irgendwie bietet Regularisierung eine günstige Möglichkeit, ein bisschen Bayes in sie einzuführen. Dies könnte daran liegen, dass die Bayes'schen Methoden immer noch nicht so optimiert sind, wie sie könnten. Beispielsweise sind einige LDA-Implementierungen heutzutage schnell. Aber sie erforderten sehr harte Arbeit. Für Entropieschätzungen waren die ersten fortgeschrittenen Methoden Bayesian. Sie funktionierten gut, aber bald wurden häufig verwendete Methoden entdeckt, die viel weniger Rechenzeit in Anspruch nehmen ... Für die Rechenzeit sind häufig verwendete Methoden im Allgemeinen eindeutig überlegen. Es ist nicht absurd, wenn Sie Bayesianer sind, sich frequentistische Methoden als Annäherungen an Bayesianische Methoden vorzustellen.

Benoit Sanchez
quelle
2
"Ich kenne keine häufige Rechtfertigung dafür, warum Regularisierung angewendet wird." Das ist einfach; Bei wiederholten Versuchen hat sich gezeigt, dass der Fehler außerhalb der Stichprobe geringer ist.
Cliff AB
2

Eine Art von Problem, bei dem ein bestimmter, auf Frequentisten basierender Ansatz im Wesentlichen jeden Bayes'schen dominiert hat, ist die Vorhersage im Fall von M-open.

Was bedeutet M-open?

M-open impliziert, dass das wahre Modell, das die Daten generiert, nicht in der Modellgruppe erscheint, die wir betrachten. Wenn zum Beispiel der wahre Mittelwert von als Funktion von quadratisch ist , wir jedoch nur Modelle mit dem Mittelwert als lineare Funktion von , sind wir im M-offenen Fall. Mit anderen Worten führt eine Modellfehlerspezifikation zu einem M-offenen Fall.yxx

In den meisten Fällen ist dies ein großes Problem für Bayes'sche Analysen. So ziemlich jede Theorie, die ich kenne, beruht auf der korrekten Angabe des Modells. Natürlich sollten wir als kritische Statistiker denken, dass unser Modell immer falsch spezifiziert ist. Das ist ein ziemliches Problem. Der größte Teil unserer Theorie basiert darauf, dass das Modell korrekt ist, aber wir wissen, dass dies niemals der Fall ist. Grundsätzlich drücken wir nur die Daumen in der Hoffnung, dass unser Modell nicht zu falsch ist.

Warum behandeln Frequentist-Methoden dies besser?

Nicht alle. Wenn wir beispielsweise Standard-MLE-Tools zum Erstellen von Standardfehlern oder zum Erstellen von Vorhersageintervallen verwenden, sind wir nicht besser dran als mit Bayes'schen Methoden.

Es gibt jedoch ein bestimmtes Frequentist-Tool, das genau für diesen Zweck vorgesehen ist: die Kreuzvalidierung. Um abzuschätzen, wie gut unser Modell neue Daten vorhersagt, lassen wir hier einfach einige der Daten beim Anpassen des Modells und messen, wie gut unser Modell die unsichtbaren Daten vorhersagt.

Beachten Sie, dass diese Methode der Modellfehlerspezifikation völlig widersprüchlich ist. Sie bietet lediglich eine Methode, mit der abgeschätzt werden kann, wie gut ein Modell neue Daten vorhersagt, unabhängig davon, ob das Modell "korrekt" ist oder nicht.

Ich glaube nicht, dass es zu schwierig ist zu argumentieren, dass dies den Ansatz der Vorhersage-Modellierung, der aus Bayes'scher Sicht schwer zu rechtfertigen ist (vorher soll Vorwissen repräsentieren, bevor Daten angezeigt werden, Likelihood-Funktion ist das Modell usw.), wirklich zu einem ändert Dies ist aus Sicht des Frequentismus sehr einfach zu rechtfertigen (wir haben das Modell und die Regularisierungsparameter ausgewählt, die bei wiederholter Stichprobe zu den besten Stichprobenfehlern führen).

Dies hat die Art und Weise, wie vorausschauende Schlussfolgerungen erstellt werden, völlig revolutioniert. Ich glaube nicht, dass ein Statistiker ein Vorhersagemodell ernsthaft in Betracht ziehen würde (oder sollte), das nicht mit einer Kreuzvalidierung erstellt oder überprüft wurde, wenn es verfügbar ist (dh wir können vernünftigerweise annehmen, dass die Beobachtungen unabhängig sind und nicht versuchen, dies zu berücksichtigen) für Abtastvorspannung usw.).

Cliff AB
quelle