Warum sollte man zufälliges Vertrauen oder glaubwürdige Intervalle verwenden?

16

Ich habe kürzlich eine Zeitung gelesen, die Zufälligkeit in ihr Vertrauen und ihre glaubwürdigen Intervalle einbezog, und ich habe mich gefragt, ob dies Standard ist (und wenn ja, warum es eine vernünftige Sache ist, dies zu tun). Um die Notation zu setzen, nehmen wir an, dass unsere Daten und wir daran interessiert sind, Intervalle für einen Parameter erstellen . Ich bin es gewohnt, Vertrauens- / Glaubwürdigkeitsintervalle durch den Aufbau einer Funktion zu konstruieren:xXθΘ

fx:Θ{0,1}

und unser Intervall sei .I={θΘ:fx(θ)=1}

Dies ist in dem Sinne zufällig, dass es von den Daten abhängt, aber abhängig von den Daten ist es nur ein Intervall. Dieses Papier definiert stattdessen

gx:Θ[0,1]

und auch eine Sammlung von gleichförmigen Zufallsvariablen auf . Es definiert das zugehörige Intervall als . Beachten Sie, dass dies in hohem Maße von der Hilfszufälligkeit abhängt, unabhängig davon, was aus den Daten hervorgeht. [ 0 , 1 ] I = { θ Θ{Uθ}θΘ[0,1]I={θΘ:fx(θ)Uθ}

Ich bin sehr gespannt, warum man das machen würde. Ich halte es für sinnvoll, die Vorstellung eines Intervalls von Funktionen wie zu Funktionen wie lockern"; Es ist eine Art gewichtetes Konfidenzintervall. Ich kenne keine Referenzen dafür (und würde alle Hinweise schätzen), aber es scheint ganz natürlich. Ich kann mir jedoch keinen Grund vorstellen, zusätzliche Zufälligkeiten hinzuzufügen. g xfxgx

Hinweise auf die Literatur / Gründe hierfür wären willkommen!

QQQ
quelle
5
(+1) Dies wird als randomisierte Prozedur bezeichnet. Sie sind ein Standardbestandteil des statistischen Schätz- und Test-Frameworks, sodass Sie sich für Erklärungen auf nahezu jedes strenge Lehrbuch verlassen können. Zusätzliche Motivation für ihren Einsatz findet sich in der spieltheoretischen Literatur.
whuber
Danke für die Antwort. Nachdem ich diesen Kommentar gelesen hatte, wurde mir klar, dass z. B. Bootstrapping in dieses Framework passt, aber in dieser Situation ist der Grund für die Randomisierung klar (Sie haben keinen Zugriff auf f, nur auf g). In meinem Fall berechnen die Autoren explizit und betrachten dann . Obwohl ich viele Statistik-Lehrbücher habe, sehe ich das nirgendwo ... haben Sie einen Textvorschlag? g xfxgx
QQQ
3
Tatsächlich ist Bootstrapping kein zufälliges Verfahren. Es handelt sich um ein bestimmtes Verfahren, dessen ungefähre Berechnung durch Stichproben erfolgt.
Whuber

Antworten:

4

Randomisierte Prozeduren werden manchmal in der Theorie verwendet, weil sie die Theorie vereinfachen. Bei typischen statistischen Problemen ist dies in der Praxis nicht sinnvoll, während es in spieltheoretischen Situationen sinnvoll sein kann.

Der einzige Grund, warum ich sehe, dass ich es in der Praxis verwende, ist, wenn es irgendwie die Berechnungen vereinfacht.

Theoretisch kann man aus dem Suffizienzprinzip argumentieren, dass es nicht verwendet werden sollte : Statistische Schlussfolgerungen sollten nur auf ausreichenden Zusammenfassungen der Daten basieren, und die Randomisierung führt die Abhängigkeit eines zufälligen Fremd- das nicht Teil einer ausreichenden Zusammenfassung der Daten ist.U

UPDATE  

Zur Beantwortung von Whubers Kommentaren, die hier zitiert werden: "Warum machen randomisierte Verfahren in der Praxis keinen Sinn?" Wie andere angemerkt haben, sind Experimentatoren durchaus bereit, bei der Konstruktion ihrer experimentellen Daten, wie der randomisierten Zuordnung von Behandlung und Kontrolle, die Randomisierung zu verwenden Was ist also so anders (und unpraktisch oder zu beanstanden) an der Verwendung der Randomisierung bei der anschließenden Analyse der Daten? "

Nun, die Randomisierung des Experiments, um die Daten zu erhalten, dient hauptsächlich dazu, Kausalitätsketten zu durchbrechen. Ob und wann dies effektiv ist, ist eine andere Diskussion. Was könnte der Zweck sein, die Randomisierung als Teil der Analyse zu verwenden? Der einzige Grund, den ich je gesehen habe, ist, dass es die mathematische Theorie vollständiger macht! Das ist in Ordnung, solange es geht. In spieltheoretischen Kontexten, wenn es einen tatsächlichen Gegner gibt, hilft mir die Randomisierung, ihn zu verwirren. In realen Entscheidungskontexten (verkaufen oder nicht verkaufen?) Muss eine Entscheidung getroffen werden, und wenn die Daten keine Beweise enthalten, kann man vielleicht einfach eine Münze werfen. Aber in einem wissenschaftlichen Kontext, in dem die Frage ist, was wir lernen könnenAus den Daten geht hervor, dass die Randomisierung fehl am Platz ist. Ich kann keinen wirklichen Vorteil davon sehen! Wenn Sie anderer Meinung sind, haben Sie ein Argument, das einen Biologen oder einen Chemiker überzeugen könnte? (Und hier denke ich nicht über Simulation als Teil von Bootstrap oder MCMC nach.)

kjetil b halvorsen
quelle
1
Warum machen randomisierte Verfahren "in der Praxis keinen Sinn"? Wie andere angemerkt haben, sind Experimentatoren durchaus bereit, bei der Konstruktion ihrer experimentellen Daten die Randomisierung zu verwenden , beispielsweise die randomisierte Zuordnung von Behandlung und Kontrolle. Was ist also anders (und unpraktisch oder unzulässig) an der Verwendung der Randomisierung bei der nachfolgenden Datenanalyse ? ?
whuber
1
@kjetil Ich denke, Sie haben Ihre Aussage über das Suffizienzprinzip möglicherweise nicht abgeschlossen, es scheint mitten im Satz abgeschnitten worden zu sein ("statistische Schlussfolgerungen sollten ...").
Silberfischchen
1
U
1
@whuber: Es ist ein klares, prinzipielles Argument, dass die Randomisierung beim Abrufen der Daten vorteilhaft sein kann. (Es bricht Kausalketten). Was ist das prinzipielle Argument für die Verwendung der Randomisierung als Teil der Analyse?
kjetil b halvorsen
1
Kjetil: Damit können Sie die beabsichtigte Risikofunktion erreichen, anstatt eine Risikofunktion (häufig in Form von Nenngröße und Nennleistung) zu akzeptieren, die nicht Ihren Wünschen entspricht. Darüber hinaus kann es, wenn ein Verfahren "theoretisch" nützlich ist, sicher keine Einwände gegen seine Verwendung in der Praxis geben, abgesehen von der Unpraktikabilität (was normalerweise bei randomisierten Verfahren nicht der Fall ist). Daher sollte Ihre Frage auf den Kopf gestellt werden: Sie müssen beweisen, dass bei der Verwendung von randomisierten Verfahren etwas nicht stimmt. Wie schaffen Sie das, ohne sich selbst zu widersprechen?
whuber
3

Die Idee bezieht sich auf das Testen, aber im Hinblick auf die Dualität von Test- und Konfidenzintervallen gilt dieselbe Logik für CIs.

Grundsätzlich stellen randomisierte Tests sicher, dass eine gegebene Größe eines Tests auch für Experimente mit diskreten Werten erhalten werden kann.

α=0.05pH0:p=0.5H1:p<0.5n=10

H0k=2ppbinom(2,10,.5)k=1H0

k=2

Christoph Hanck
quelle
α
Nun, ich denke, das bringt uns zurück zur Geschichte der Statistik, als RA Fisher sich willkürlich entschied, mit einem Signifikanzniveau von 5% zu arbeiten, um zu entscheiden, ob einige erste Beweise eine weitere Untersuchung rechtfertigen. Wie wir wissen, haben sich 5% seitdem in vielen Bereichen zu einer Art Goldstandard entwickelt, obwohl es an einer guten entscheidungstheoretischen Grundlage mangelt.
Christoph Hanck