In der Bayes'schen Inferenz wird eine prädiktive Verteilung für zukünftige Daten abgeleitet, indem unbekannte Parameter herausintegriert werden. Die Integration über die posteriore Verteilung dieser Parameter ergibt eine posteriore Vorhersageverteilung - eine Verteilung für zukünftige Daten, die von den bereits beobachteten abhängig ist. Welche nicht-bayesianischen Methoden für die prädiktive Inferenz berücksichtigen Unsicherheiten bei Parameterschätzungen (dh, sie fügen nicht nur Maximum-Likelihood-Schätzungen oder was auch immer in eine Dichtefunktion zurück)?
Jeder weiß, wie man Vorhersageintervalle nach einer linearen Regression berechnet, aber was sind die Prinzipien hinter der Berechnung und wie können sie in anderen Situationen angewendet werden (z. B. Berechnung eines genauen Vorhersageintervalls für eine neue Exponentialvariable nach Schätzung des Ratenparameters aus Daten)?
quelle
Antworten:
Die nicht-bayesianische prädiktive Inferenz (abgesehen vom Fall der Spiegelreflexkamera) ist ein relativ neues Gebiet. Unter der Überschrift "Nicht-Bayesian" können wir die Ansätze in "klassische" Frequentisten und "Wahrscheinlichkeitsansätze" unterteilen.
Klassische häufige Vorhersage
Jetzt hatte ich im Allgemeinen Probleme damit, wie klassische PIs in den meisten Statistikkursen vorgestellt und unterrichtet werden, da die überwältigende Tendenz darin besteht, diese als Bayes'sche posteriore Vorhersageintervalle zu interpretieren, was definitiv nicht der Fall ist. Grundsätzlich geht es um unterschiedliche Wahrscheinlichkeiten! Bayesianer erheben keinen Anspruch auf die wiederholte Probenahme ihrer Mengen (sonst wären sie Frequentisten). Zweitens erreicht ein Bayes-PI tatsächlich etwas, das einem klassischen Toleranzintervall ähnlicher ist als einem klassischen Vorhersageintervall.
Als Referenz: Toleranzintervalle müssen mit zwei Wahrscheinlichkeiten angegeben werden : der Zuverlässigkeit und der Abdeckung. Das Vertrauen sagt uns, wie oft es in wiederholten Proben korrekt ist. Die Abdeckung sagt uns die Mindest Wahrscheinlichkeitsmaß des Intervalls unter der wahren Verteilung (in Bezug auf das PI gegenüber , das das gibt erwarteten Wahrscheinlichkeitsmaß ... wieder unter wiederholter Probenahme). Dies ist im Grunde das, was der Bayesianische PI auch versucht, jedoch ohne Behauptungen über wiederholte Probenahmen.
Die Grundlogik der einfachen linearen Regression von Stats 101 besteht also darin, die Eigenschaften der wiederholten Abtastung des PI unter der Annahme der Normalität abzuleiten. Es ist der häufigste + Gaußsche Ansatz, der normalerweise als "klassisch" eingestuft wird und in Intro-Statistik-Kursen unterrichtet wird. Dies basiert auf der Einfachheit der resultierenden Berechnungen (siehe Wikipedia für einen schönen Überblick).
Nicht-Gaußsche Wahrscheinlichkeitsverteilungen sind im Allgemeinen problematisch, weil es ihnen an entscheidenden Größen mangeln kann, die sauber invertiert werden können, um ein Intervall zu erhalten. Daher gibt es für diese Verteilungen keine "exakte" Methode, da die Eigenschaften des Intervalls häufig von den tatsächlichen zugrunde liegenden Parametern abhängen.
In Anerkennung dieser Unfähigkeit entstand eine weitere Klasse von Vorhersagen (und von Schlussfolgerungen und Schätzungen) mit dem Wahrscheinlichkeitsansatz.
Wahrscheinlichkeitsbasierte Inferenz
Wahrscheinlichkeitsbasierte Ansätze lassen sich wie viele moderne statistische Konzepte auf Ronald Fisher zurückführen. Die Grundidee dieser Schule ist, dass unsere statistischen Schlussfolgerungen mit Ausnahme von Sonderfällen logisch schwächer sind als bei Schlussfolgerungen aus einer Normalverteilung (deren Parameterschätzungen orthogonal sind ), in der wir genaue Wahrscheinlichkeitsaussagen treffen können. Aus dieser Sicht der Folgerung sollte man Aussagen über die Wahrscheinlichkeit wirklich vermeiden, außer im genauen Fall, ansonsten sollte man Aussagen über die Wahrscheinlichkeit machen und anerkennen, dass man die genaue Fehlerwahrscheinlichkeit nicht kennt (im häufigeren Sinne).
Daher können wir die Wahrscheinlichkeit als mit der Bayes'schen Wahrscheinlichkeit verwandt ansehen, jedoch ohne die Integrierbarkeitsanforderungen oder die mögliche Verwechslung mit der frequentistischen Wahrscheinlichkeit. Ihre Interpretation ist völlig subjektiv ... obwohl für die Inferenz einzelner Parameter oft ein Wahrscheinlichkeitsverhältnis von 0,15 empfohlen wird.
Allerdings sieht man nicht oft Artikel, die explizit "Wahrscheinlichkeitsintervalle" angeben. Warum? Es scheint, dass dies größtenteils eine Frage der Soziologie ist, da wir uns alle an wahrscheinlichkeitsbasierte Vertrauensaussagen gewöhnt haben. Stattdessen sehen Sie oft einen Autor, der sich auf ein "ungefähres" oder "asymptotisches" Konfidenzintervall von solchem und solchem bezieht. Diese Intervalle leiten sich größtenteils aus Likelihood-Methoden ab, bei denen wir uns auf die asymptotische Chi-Quadrat-Verteilung des Likelihood-Verhältnisses stützen, ähnlich wie wir uns auf die asymptotische Normalität des Stichprobenmittelwerts stützen.
Mit dieser "Korrektur" können wir nun "ungefähre" 95% -Vertrauensbereiche mit fast genauso logischer Konsistenz wie die Bayesianer konstruieren.
Von CI zu PI im Likelihood Framework
Der Erfolg und die Leichtigkeit des oben genannten Likelihood-Ansatzes führten zu Überlegungen, wie er auf Vorhersagen ausgedehnt werden kann. Ein sehr schöner Übersichtsartikel dazu ist hier zu finden (ich werde seine hervorragende Berichterstattung nicht wiedergeben). Es geht zurück auf David Hinkley in den späten 1970er Jahren (siehe JSTOR ), der den Begriff geprägt hat. Er wandte es auf das mehrjährige " Pearson's Binomial Prediction Problem " an. Ich werde die grundlegende Logik zusammenfassen.
Die Grundregeln zum Entfernen von "Stör" -Parametern, um eine prädiktive Wahrscheinlichkeit zu erhalten, lauten wie folgt:
Die Unterscheidung zwischen einem festen und einem zufälligen Parameter ist für die Wahrscheinlichkeitsinferenz eindeutig, hat jedoch Verbindungen zu Modellen mit gemischten Effekten, bei denen das Bayes'sche, das Frequent'sche und das Wahrscheinlichkeitsgerüst anscheinend kollidieren.
Hoffentlich hat dies Ihre Frage nach dem weiten Bereich der "nicht-Bayes'schen" Vorhersage (und der Schlußfolgerung in dieser Angelegenheit) beantwortet. Da sich Hyperlinks ändern können, werde ich auch einen Plug für das Buch "In aller Wahrscheinlichkeit: Statistische Modellierung und Inferenz unter Verwendung von Likelihood" erstellen, in dem das moderne Likelihood-Framework eingehend erörtert wird Inferenz und Vorhersage.
Verweise
quelle
Ich werde meine Antwort speziell auf die Frage richten: "Welche nicht-bayesianischen Methoden für die prädiktive Inferenz gibt es, die die Unsicherheit bei Parameterschätzungen berücksichtigen?" Ich werde meine Antwort so organisieren, dass die Bedeutung von Unsicherheit erweitert wird .
Wir hoffen, dass statistische Analysen Unterstützung für verschiedene Arten von Ansprüchen bieten, einschließlich Vorhersagen . Wir sind unsicher über unsere Behauptungen, und diese Unsicherheit ergibt sich aus vielen Quellen. Frequentistische Statistiken sind charakteristischerweise so organisiert, dass nur der Teil unserer Unsicherheit berücksichtigt wird, der sich speziell aus der Stichprobe ergibt . Die Stichprobenerhebung dürfte die Hauptursache für Unsicherheiten in den landwirtschaftlichen Feldversuchen gewesen sein, die historisch gesehen einen großen Anreiz für die Entwicklung der frequentistischen Statistiken darstellten. In vielen der wichtigsten aktuellen Anwendungen ist dies jedoch nicht der Fall. Wir sorgen uns jetzt um alle möglichen anderen Unsicherheiten wie Modellfehlspezifikationen und verschiedene Arten von Verzerrungen, von denen es anscheinend Hunderte (!) Von Typen gibt [1].
Sander Greenland hat ein wunderbares Diskussionspapier [2] verfasst, in dem dargelegt wird, wie wichtig es sein kann, diese anderen Unsicherheitsquellen zu berücksichtigen, und in dem eine Multiple-Bias-Analyse als Mittel zur Erreichung dieses Ziels vorgeschrieben ist. Er entwickelt die Theorie vollständig in Bayes'schen Begriffen, was natürlich ist. Möchte man eine formelle, kohärente Behandlung der Unsicherheit über Modellparameter vornehmen, wird man natürlich dazu gebracht, (subjektive) Wahrscheinlichkeitsverteilungen über Parameter zu setzen; Zu diesem Zeitpunkt sind Sie entweder dem Bayesianischen Teufel ausgeliefert oder haben das Bayesianische Himmelreich betreten (abhängig von Ihrer Religion).
Auf Ihre Frage, @Scortchi, ob dies mit "nicht-Bayesianischen Methoden" möglich ist, wird in [3] eine nicht-Bayesianische Problemumgehung gezeigt. Aber für alle, die genug über den Bayesianismus wissen, um Ihre Frage zu schreiben, wird die Behandlung dort sozusagen wie ein Versuch aussehen, Bayesianische Berechnungen sozusagen 'auf den Kopf zu stellen'. Wie die Autoren bestätigen (siehe S. 4), sehen die Methoden umso genauer aus, je weiter Sie sich gegen Ende des Buches den fortgeschritteneren Methoden nähern, je genauer die Integration ist, die Sie in Ihrer Frage beschreiben. Sie schlagen vor, dass, wo sie vom Bayesianismus abweichen, sie letztendlich nur keine expliziten Prioritäten für ihre Parameter setzen, bevor sie diese abschätzen.
Chavalarias, David und John PA Ioannidis. "Science-Mapping-Analyse charakterisiert 235 Verzerrungen in der biomedizinischen Forschung." Journal of Clinical Epidemiology 63, No. 11 (November 2010): 1205–15. doi: 10.1016 / j.jclinepi.2009.12.011.
Grönland, Sander. "Multiple-Bias-Modellierung zur Analyse von Beobachtungsdaten (mit Diskussion)." Journal der Royal Statistical Society: Reihe A (Statistik in der Gesellschaft) 168, Nr. 2 (März 2005): 267–306. doi: 10.1111 / j.1467-985X.2004.00349.x.
Lash, Timothy L., Matthew P. Fox und Aliza K. Fink. Anwendung der quantitativen Verzerrungsanalyse auf epidemiologische Daten. Statistik für Biologie und Gesundheit. New York, NY: Springer New York, 2009. http://link.springer.com/10.1007/978-0-387-87959-8 .
quelle