Jede Aussage, die ich vom James-Stein-Schätzer finde, geht davon aus, dass die zu schätzenden Zufallsvariablen dieselbe (und Einheits-) Varianz haben.
Alle diese Beispiele erwähnen jedoch auch, dass der JS-Schätzer verwendet werden kann, um Mengen zu schätzen, die nichts miteinander zu tun haben. Das Wikipedia-Beispiel ist die Lichtgeschwindigkeit, der Teekonsum in Taiwan und das Schweinegewicht in Montana. Vermutlich würden Ihre Messungen an diesen drei Größen jedoch unterschiedliche "wahre" Abweichungen aufweisen. Stellt dies ein Problem dar?
Dies hängt mit einem größeren konzeptionellen Problem zusammen, das ich im Zusammenhang mit dieser Frage nicht verstehe: James-Stein-Schätzer: Wie haben Efron und Morris den Schrumpfungsfaktor für ihr Baseball-Beispiel berechnet ? Wir berechnen den Schrumpfungsfaktor wie folgt:
Intuitiv würde ich denken, dass der -Term tatsächlich - für jede geschätzte Größe unterschiedlich. In der Diskussion in dieser Frage geht es jedoch nur um die Verwendung der gepoolten Varianz ...
Ich würde mich sehr freuen, wenn jemand diese Verwirrung beseitigen könnte!
quelle
Antworten:
Diese Frage wurde in der klassischen Reihe von Arbeiten zum James-Stein-Schätzer im empirischen Bayes-Kontext, die in den 1970er Jahren von Efron & Morris verfasst wurden, explizit beantwortet. Ich beziehe mich hauptsächlich auf:
Efron und Morris, 1973, Steins Schätzregel und ihre Konkurrenten - Ein empirischer Bayes-Ansatz
Efron und Morris, 1975, Datenanalyse mit Steins Schätzer und seinen Verallgemeinerungen
Efron und Morris, 1977, Steins Paradoxon in der Statistik
Das Papier von 1977 ist eine nichttechnische Darstellung, die man unbedingt lesen muss. Dort stellen sie das Baseball-Schlagbeispiel vor (das in dem Thread, mit dem Sie verlinkt haben, besprochen wird). In diesem Beispiel sollen die Beobachtungsvarianzen tatsächlich für alle Variablen gleich sein, und der Schrumpfungsfaktorc ist konstant.
Sie geben jedoch ein weiteres Beispiel an, bei dem die Toxoplasmoseraten in einer Reihe von Städten in El Salvador geschätzt werden. In jeder Stadt wurde eine unterschiedliche Anzahl von Personen befragt, so dass bei einzelnen Beobachtungen (Toxoplasmoserate in jeder Stadt) unterschiedliche Varianzen angenommen werden können (je geringer die Anzahl der befragten Personen ist, desto höher ist die Varianz). Die Intuition ist sicherlich, dass Datenpunkte mit geringer Varianz (geringe Unsicherheit) nicht so stark geschrumpft werden müssen wie Datenpunkte mit hoher Varianz (hohe Unsicherheit). Das Ergebnis ihrer Analyse ist in der folgenden Abbildung dargestellt, in der dies tatsächlich zu sehen ist:
Dieselben Daten und Analysen werden auch in dem viel technischeren Papier von 1975 in einer viel eleganteren Abbildung dargestellt (die einzelnen Abweichungen werden jedoch leider nicht angezeigt), siehe Abschnitt 3:
Dort präsentieren sie eine vereinfachte empirische Bayes-Behandlung, die wie folgt abläuft. SeiXi|θi∼N(θi,Di)θi∼N(0,A) wobeiA unbekannt ist. Falls alleDi=1 identisch sind, ist die StandardEmpirical Bayes Behandlung abzuschätzen1/(1+A) als(k−2)/∑X2j , und den a posteriori Mittelwert zu berechnenθi als θ i = ( 1 - 1θ^i=(1−11+A)Xi=(1−k−2∑X2j)Xi, was nichts anderes als der James-Stein-Schätzer ist.
Wenn jetztDi≠1 , dann ist die Aktualisierung der Bayes - Regel θ i = ( 1 - D iθ^i=(1−DiDi+A)Xi und wir können den gleichen empirische Bayes Trick verwendenum abzuschätzenA , auch wenn es für keine geschlossene FormelAin diesem Fall (siehe Papier). Sie stellen jedoch fest, dassA^
Der relevante Abschnitt in der Veröffentlichung von 1973 ist Abschnitt 8, und es ist etwas schwieriger zu lesen. Interessanterweise haben sie dort einen expliziten Kommentar zu dem Vorschlag von @guy in den obigen Kommentaren:
quelle