Einige Bayesianer greifen häufig auftretende Folgerungen mit der Begründung an, dass "es keine eindeutige Stichprobenverteilung gibt", da dies von den Absichten des Forschers abhängt (Kruschke, Aguinis, & Joo, 2012, S. 733).
Angenommen, ein Forscher beginnt mit der Datenerfassung, doch seine Finanzierung wurde nach 40 Teilnehmern unerwartet gekürzt. Wie würden hier überhaupt die Stichprobenverteilungen (und nachfolgende CIs und p-Werte) definiert? Würden wir einfach annehmen, dass jede Bestandteilsprobe N = 40 hat? Oder würde es aus Stichproben mit unterschiedlichem N bestehen, wobei jede Größe durch andere zufällige Zeitpunkte bestimmt wird, zu denen seine Finanzierung gekürzt wurde?
Die in Lehrbüchern vorkommenden Verteilungen von t, F, Chi-Quadrat (usw.) und Null setzen alle voraus, dass das N für alle Teilstichproben fest und konstant ist, was in der Praxis jedoch möglicherweise nicht zutrifft. Bei jedem anderen Stoppvorgang (z. B. nach einem bestimmten Zeitintervall oder bis mein Assistent müde wird) scheint es eine andere Stichprobenverteilung zu geben, und die Verwendung dieser bewährten festen N-Verteilungen ist unangemessen.
Wie schädlich ist diese Kritik an der Legitimität von frequentistischen CIs und p-Werten? Gibt es theoretische Widerlegungen? Es scheint, dass durch den Angriff auf das Konzept der Stichprobenverteilung das gesamte Gebäude der frequentistischen Folgerung schwächer wird.
Alle wissenschaftlichen Referenzen werden sehr geschätzt.
Antworten:
In der Regel wird eine Inferenz abhängig von der tatsächlichen Stichprobengröße , da sie den interessierenden Parametern untergeordnet ist. dh es enthält keine Informationen über ihre wahren Werte, sondern wirkt sich nur auf die Genauigkeit aus, mit der Sie sie messen können. Cox (1958), "Einige Probleme im Zusammenhang mit statistischer Inferenz", Ann. Mathematik. Statist. 29 , 2 wird normalerweise als erstes zitiert, um das zu erläutern, was manchmal als das Konditionalitätsprinzip bezeichnet wird, obwohl es in viel früheren Arbeiten impliziert war und auf Fischers Idee von "relevanten Teilmengen" zurückgeht.n
Wenn die Finanzierung Ihres Forschers abgeschnitten wurde, weil die bisherigen Ergebnisse enttäuschend waren, ist natürlich keine Nebensache. Die vielleicht einfachste Veranschaulichung des Problems ist die Schätzung einer Bernoulli-Wahrscheinlichkeit anhand eines Stichprobenplans mit Binomialwert (feste Anzahl von Versuchen) oder eines Stichprobenplans mit negativem Binomialwert (feste Anzahl von Erfolgen). Die ausreichende Statistik ist in beiden Fällen gleich, aber die Verteilung ist unterschiedlich. Wie würden Sie ein Experiment analysieren, bei dem Sie nicht wussten, welches gefolgt wurde? Berger & Wolpert (1988), The Likelihood Principle ( Das Wahrscheinlichkeitsprinzip) diskutieren die Implikationen dieser und anderer Schlussregeln.n
Sie sollten sich überlegen, was passiert, wenn Sie keine Stichprobenverteilung berücksichtigen. Armitage (1961), "Comment on 'Consistency in Statistical Inference and Decision' von Smith", JRSS B, 23 , 1, wies darauf hin, dass, wenn Sie von einer Normalverteilung bis , das Wahrscheinlichkeitsverhältnis für die Prüfung , daß die Mittel vs ist , so dass der Forscher im Voraus durch eine geeignete Wahl von eine Grenze dafür setzen kann√x n−−√x¯≤k μ=0 μ≠0 L(0)L(x¯)≤e−k2/2 k . Nur eine frequentistische Analyse kann die Verteilung des Wahrscheinlichkeitsverhältnisses im Rahmen dieses eher unfair erscheinenden Stichprobenplans berücksichtigen. Siehe die Antworten von Kerridge (1963), "Grenzen für die Häufigkeit irreführender Bayes-Schlussfolgerungen", Ann. Mathematik. Stat. , 34 , Cornfield (1966), "Sequential Trials, Sequential Analysis and the Likelihood Principle", The American Statistician , 20 , 2 , & Kadane (1996), "Reasoning to a foregone Schlussfolgerung", JASA , 91 , 435
Auf die Abhängigkeit der frequentistischen Inferenz von den Intentionen eines Forschers hinzuweisen, ist eine gute Gelegenheit, um Leute (falls es noch welche gibt), die sich über die "Subjektivität" der bayesianischen Inferenz auf den Beinen halten, auszuloten. Persönlich kann ich damit leben; Die Durchführung eines Verfahrens über eine lange Reihe von Wiederholungen wird immer mehr oder weniger fiktiv sein, was nicht davon ablenkt, dass es nützlich ist, dies in Betracht zu ziehen ("eine Kalibrierung der Wahrscheinlichkeit" lautete, wie Cox p-Werte beschrieb) ). Anhand der Daten der Referenzen haben Sie möglicherweise bemerkt, dass diese Probleme nicht sehr neu sind. Versuche, sie durch a priori Argumentation beizulegen, sind größtenteils zum Erliegen gekommen (außer im Internet, immer hinter der Zeit, außer in unbedeutenden Angelegenheiten).
PS: Als ich darüber nachdachte, Berger & Wolpert ein Gegengewicht zu verleihen, stieß ich auf Cox & Mayo (2010), "Objektivität und Konditionalität in frequentistischer Folgerung" in Fehler und Folgerung . In meiner Behauptung, dass die Debatte zum Erliegen gekommen ist, steckt mit großer Wahrscheinlichkeit ein Teil des Wunschdenkens, aber es ist bemerkenswert, wie wenig Neues in dieser Angelegenheit nach etwa einem halben Jahrhundert zu sagen ist. (Trotzdem ist dies eine prägnante und eloquente Verteidigung von frequentistischen Ideen.)
quelle
Die kurze Antwort auf Ihre Frage lautet: Es kommt darauf an, wen Sie fragen ;-) Hartnäckige Bayesianer werden den Sieg über oder zumindest die Parität mit der frequentistischen Methodik erklären. Eingefleischte Frequentisten wählen standardmäßig "Dies kann nicht beantwortet werden". Die anderen 99% der Statistiker werden die Methoden verwenden, die sich in unterbrochenen Experimenten als zuverlässig erwiesen haben.
Ich weiß, dass die Empfindlichkeit der Stichprobenverteilung gegenüber den Absichten des Forschers problematisch sein kann, und es gibt wirklich keine gute Lösung für dieses Problem. Sowohl Bayesianer als auch Frequentisten müssen mit Subjektivität und Urteilsvermögen entscheiden, wie sie eine Schlussfolgerung ziehen sollen. Ich denke jedoch, Sie nehmen ein Beispiel aus einem Bereich, der im Allgemeinen umstritten ist, und legen die Probleme nur zu Füßen der häufigeren Schlussfolgerung. Die sequentiellen und / oder gestoppten Experimente sind klassische Beispiele für die subjektive Natur von Schlussfolgerungen ... und auf die es keine absolut objektive und übereinstimmende Antwort gibt.
Was ist mit der regelmäßigen Inferenz, bei der Sie tatsächlich die Probe sammeln, die Sie erhalten möchten? Hier haben die Frequentisten meines Erachtens die Oberhand, da die CI- und p-Werte im Hinblick auf ihre Eigenschaften bei wiederholten Stichproben gut kalibriert sind, während die Bayes'sche Folgerung ihren persönlichen und subjektiven Charakter behält.
Wenn Sie eine theoretischere Darstellung der Bayes'schen Reaktion wünschen, würde ich über "bedingte Inferenz" mit Schlüsselforschern wie Nancy Reid und Lehmann lesen .
quelle