Ich habe kürzlich eine Zeitung gelesen, die Zufälligkeit in ihr Vertrauen und ihre glaubwürdigen Intervalle einbezog, und ich habe mich gefragt, ob dies Standard ist (und wenn ja, warum es eine vernünftige Sache ist, dies zu tun). Um die Notation zu setzen, nehmen wir an, dass unsere Daten und wir daran interessiert sind, Intervalle für einen Parameter erstellen . Ich bin es gewohnt, Vertrauens- / Glaubwürdigkeitsintervalle durch den Aufbau einer Funktion zu konstruieren:
und unser Intervall sei .
Dies ist in dem Sinne zufällig, dass es von den Daten abhängt, aber abhängig von den Daten ist es nur ein Intervall. Dieses Papier definiert stattdessen
und auch eine Sammlung von gleichförmigen Zufallsvariablen auf . Es definiert das zugehörige Intervall als . Beachten Sie, dass dies in hohem Maße von der Hilfszufälligkeit abhängt, unabhängig davon, was aus den Daten hervorgeht. [ 0 , 1 ] I = { θ ∈ Θ
Ich bin sehr gespannt, warum man das machen würde. Ich halte es für sinnvoll, die Vorstellung eines Intervalls von Funktionen wie zu Funktionen wie lockern"; Es ist eine Art gewichtetes Konfidenzintervall. Ich kenne keine Referenzen dafür (und würde alle Hinweise schätzen), aber es scheint ganz natürlich. Ich kann mir jedoch keinen Grund vorstellen, zusätzliche Zufälligkeiten hinzuzufügen. g x
Hinweise auf die Literatur / Gründe hierfür wären willkommen!
Antworten:
Randomisierte Prozeduren werden manchmal in der Theorie verwendet, weil sie die Theorie vereinfachen. Bei typischen statistischen Problemen ist dies in der Praxis nicht sinnvoll, während es in spieltheoretischen Situationen sinnvoll sein kann.
Der einzige Grund, warum ich sehe, dass ich es in der Praxis verwende, ist, wenn es irgendwie die Berechnungen vereinfacht.
Theoretisch kann man aus dem Suffizienzprinzip argumentieren, dass es nicht verwendet werden sollte : Statistische Schlussfolgerungen sollten nur auf ausreichenden Zusammenfassungen der Daten basieren, und die Randomisierung führt die Abhängigkeit eines zufälligen Fremd- das nicht Teil einer ausreichenden Zusammenfassung der Daten ist.U
Zur Beantwortung von Whubers Kommentaren, die hier zitiert werden: "Warum machen randomisierte Verfahren in der Praxis keinen Sinn?" Wie andere angemerkt haben, sind Experimentatoren durchaus bereit, bei der Konstruktion ihrer experimentellen Daten, wie der randomisierten Zuordnung von Behandlung und Kontrolle, die Randomisierung zu verwenden Was ist also so anders (und unpraktisch oder zu beanstanden) an der Verwendung der Randomisierung bei der anschließenden Analyse der Daten? "
Nun, die Randomisierung des Experiments, um die Daten zu erhalten, dient hauptsächlich dazu, Kausalitätsketten zu durchbrechen. Ob und wann dies effektiv ist, ist eine andere Diskussion. Was könnte der Zweck sein, die Randomisierung als Teil der Analyse zu verwenden? Der einzige Grund, den ich je gesehen habe, ist, dass es die mathematische Theorie vollständiger macht! Das ist in Ordnung, solange es geht. In spieltheoretischen Kontexten, wenn es einen tatsächlichen Gegner gibt, hilft mir die Randomisierung, ihn zu verwirren. In realen Entscheidungskontexten (verkaufen oder nicht verkaufen?) Muss eine Entscheidung getroffen werden, und wenn die Daten keine Beweise enthalten, kann man vielleicht einfach eine Münze werfen. Aber in einem wissenschaftlichen Kontext, in dem die Frage ist, was wir lernen könnenAus den Daten geht hervor, dass die Randomisierung fehl am Platz ist. Ich kann keinen wirklichen Vorteil davon sehen! Wenn Sie anderer Meinung sind, haben Sie ein Argument, das einen Biologen oder einen Chemiker überzeugen könnte? (Und hier denke ich nicht über Simulation als Teil von Bootstrap oder MCMC nach.)
quelle
Die Idee bezieht sich auf das Testen, aber im Hinblick auf die Dualität von Test- und Konfidenzintervallen gilt dieselbe Logik für CIs.
Grundsätzlich stellen randomisierte Tests sicher, dass eine gegebene Größe eines Tests auch für Experimente mit diskreten Werten erhalten werden kann.
pbinom(2,10,.5)
quelle