Ich beziehe einen Bayesian Model Averaging (BMA) -Ansatz in meine Forschung ein und werde meinen Kollegen in Kürze eine Präsentation über meine Arbeit geben. BMA ist auf meinem Gebiet jedoch nicht wirklich bekannt. Nachdem ich ihnen die gesamte Theorie vorgestellt und sie auf mein Problem angewendet habe, möchte ich ein einfaches, aber lehrreiches Beispiel dafür präsentieren, warum BMA funktioniert.
Ich habe über ein einfaches Beispiel mit zwei Modellen nachgedacht, aus denen man auswählen kann, aber das wahre Datengenerierungsmodell (DGM) liegt irgendwo dazwischen, und die Beweise sprechen für keines von ihnen wirklich. Wenn Sie also eine auswählen und fortfahren, würden Sie die Modellunsicherheit ignorieren und einen Fehler machen, aber BMA gibt, obwohl das wahre Modell nicht Teil des Modellsatzes ist, zumindest die korrekte hintere Dichte des interessierenden Parameters an. Zum Beispiel gibt es jeden Tag zwei Wettervorhersagen (A und B) und eine möchte das Wetter am besten vorhersagen. In der klassischen Statistik würden Sie also zuerst versuchen, die beste Vorhersage zwischen den beiden zu finden, aber was ist, wenn die Wahrheit irgendwo dazwischen liegt? (das heißt, manchmal ist A richtig, manchmal B). Aber ich konnte es nicht formalisieren. So etwas, aber ich bin sehr offen für Ideen. Ich hoffe diese Frage ist spezifisch genug!
In der Literatur habe ich keine schönen Beispiele von dem gefunden, was ich bisher gelesen habe:
- Kruschke (2011) ist zwar eine großartige Einführung in die Bayes'sche Statistik, konzentriert sich jedoch nicht wirklich auf BMA, und das Beispiel für den Münzwurf in Kapitel 4 eignet sich hervorragend zur Einführung der Bayes'schen Statistik, überzeugt jedoch einen Kollegen nicht wirklich von der Verwendung von BMA. ("Warum habe ich wieder drei Modelle, eines sagt, dass die Münze fair ist und zwei, dass sie in beide Richtungen voreingenommen ist?")
- Alle anderen Dinge, die ich lese ( Koop 2003 , Koop / Poirier / Tobias (2007) , Hoeting et al. (1999) und viele andere), sind großartige Referenzen, aber ich habe kein einfaches Spielzeugbeispiel darin gefunden.
Aber vielleicht habe ich hier gerade eine gute Quelle verpasst.
Hat jemand ein gutes Beispiel, mit dem er oder sie BMA einführt? Vielleicht sogar durch Zeigen der Wahrscheinlichkeiten und Posterioren, weil ich denke, dass das ziemlich lehrreich wäre.
quelle
Antworten:
Ich habe kürzlich etwas Ähnliches gemacht. Nicht so sehr, um andere zu überzeugen, sondern um ein kleines Projekt zu machen, bei dem ich einen kleinen Eindruck von BMA bekommen konnte. Ich habe einen Datensatz mit einer binären Antwort generiert, drei unabhängigen Variablen, die sich auf die Antwort auswirken, und sieben Variablen, die sich nicht auf die Antwort auswirken. Ich habe dann die BMA-Ergebnisse mit den häufigen Schätzungen der logistischen Regression verglichen. Ich denke, dass zumindest in diesem Fall der BMA-Ansatz ziemlich gut zu sein scheint. Wenn Sie es zugänglicher machen möchten, können Sie die Variablen oder etwas anderes benennen, anstatt sie als generisches und .yX y
Der R-Code, den ich dafür verwendet habe, ist unten dargestellt. Hoffe es kann dich inspirieren!
quelle
Eine großartige Ressource dafür ist:
Bayesian Model Averaging with BMS von Stefan Zeugner (2012)
Es verwendet das R-Paket BMS , weitere Informationen finden Sie hier:
http://bms.zeugner.eu/
Zwei praktische Tutorials zum Reproduzieren von Beispielen aus der Praxis mit dem Paket finden Sie hier:
Eine allgemeinere motivierende und aktuelle Einführung in die Bayes'schen Methoden ist das folgende Papier:
Die Zeit ist gekommen: Bayesianische Methoden zur Datenanalyse in den Organisationswissenschaften von John K. Kruschke, Herman Aguinis und Harry Joo
quelle
attitude
Beispiel und wenn Sie durch Ihren ersten Link scrollen, gibt es wirklich keine Tabelle oder Figur, in der Sie schreien würden: "Meine Güte, ich bin froh, BMA verwendet zu haben!"