Gemäß diesem sehr interessanten Artikel im Quanta Magazine: "Ein lang ersehnter Beweis, gefunden und fast verloren" - wurde bewiesen, dass ein gegebener Vektor eine multivariate Gaußsche Verteilung hat, und gegebenen Intervallen I 1 , ... , I n , die mittels der entsprechenden Komponenten zentriert um x , dann
(Gaußsche Korrelationsungleichheit oder GCI; siehe https://arxiv.org/pdf/1512.08776.pdf für die allgemeinere Formulierung).
Dies scheint wirklich nett und einfach zu sein, und der Artikel sagt, dass es Konsequenzen für die Intervalle des gemeinsamen Vertrauens hat. In dieser Hinsicht scheint es mir jedoch ziemlich nutzlos zu sein. Angenommen , wir sind Abschätzen Parameter , und wir fanden Schätzer ^ θ 1 , ... , ^ θ n , die (vielleicht asymptotisch) gemeinsam normal (zum Beispiel des MLE - Schätzer). Wenn ich dann 95% -Konfidenzintervalle für jeden Parameter berechne, garantiert der GCI, dass der Hyperwürfel I 1 × … I n ein gemeinsamer Vertrauensbereich mit einer Abdeckung von nicht weniger als ( ... was auch für mäßige n eine recht geringe Abdeckung darstellt.
Daher scheint es kein kluger Weg zu sein, gemeinsame Vertrauensbereiche zu finden: Der übliche Vertrauensbereich für einen multivariaten Gaußschen, dh ein Hyperellipsoid, ist nicht schwer zu finden, wenn die Kovarianzmatrix bekannt und schärfer ist. Vielleicht könnte es nützlich sein, Vertrauensbereiche zu finden, wenn die Kovarianzmatrix unbekannt ist? Können Sie mir ein Beispiel für die Relevanz von GCI für die Berechnung gemeinsamer Vertrauensbereiche geben?
Antworten:
Ich denke, die Frage ist relevanter. In gewissem Sinne betrachten Sie das Testen mehrerer Hypothesen und vergleichen es mit dem Ausführen mehrerer Hypothesentests.
Ja, in der Tat gibt es eine Untergrenze, die das Produkt der p-Werte der Tests unter der Annahme der Unabhängigkeit ist. Dies ist die Basis für Anpassungen von p-Werten in Multihypothesentests wie Bonferroni- oder Holm-Anpassungen. Bei den Bonferroni- und Holm-Einstellungen (unter der Annahme der Unabhängigkeit) handelt es sich jedoch um Tests mit besonders geringer Leistung.
In der Praxis kann man viel besser vorgehen (und dies erfolgt über Bootstrap, siehe z. B. den Bootstrap Reality Check von H White, die Arbeiten von Romano-Wolf und die neueren Arbeiten zu Modell-Konfidenz-Sets). Bei jedem dieser Tests handelt es sich um einen Versuch, eine Hypothese mit höherer Leistung zu testen (z. B. die geschätzte Korrelation zu verwenden, um eine bessere Leistung zu erzielen, als nur diese Untergrenze zu verwenden), und folglich wesentlich relevanter.
quelle