Angenommen, ich habe positive Parameter zum Schätzen von und deren entsprechenden unverzerrten Schätzungen, die von den Schätzern , dh , und so weiter.
Ich möchte anhand der Schätzungen schätzen. Offensichtlich ist der naive Schätzer niedriger als
Angenommen, ich habe auch die Kovarianzmatrix der entsprechenden Schätzer zur Hand. Ist es möglich, unter Verwendung der angegebenen Schätzungen und der Kovarianzmatrix eine unvoreingenommene (oder weniger voreingenommene) Schätzung des Minimums zu erhalten?
unbiased-estimator
estimators
minimum
Cagdas Ozgenc
quelle
quelle
Antworten:
Ich habe keine klare Antwort auf die Existenz eines unvoreingenommenen Schätzers. In Bezug auf den Schätzfehler ist die Schätzung von jedoch im Allgemeinen ein an sich schwieriges Problem.min ( μ1, … , Μn)
Zum Beispiel sei und . Sei die Zielmenge und ist eine Schätzung von . Wenn wir den "naiven" Schätzer wobei , dann wird der Schätzfehler durch bis zur Konstante. (Beachten Sie, dass der Schätzfehler für jeden IS ). Natürlich, wennμ = ( μ 1 , ... , μ n ) , θ = min i μ i θ θ θ = min i ( ˉ Y i ) ¯ Y i = 1Y.1, … , Y.N.∼ N.( μ , σ2ich) μ = ( μ1, … , Μn) θ = minichμich θ^ θ θ^= minich( Y.¯ich) Y.ich¯= 1N.∑N.j = 1Y.ich , j L.2 μiσ2
Daher ist der naive Schätzer bis zur Konstante minimalaxoptimal, und es gibt keine bessere Schätzung von in diesem Sinne.θ
quelle
BEARBEITEN: Das Folgende beantwortet eine andere Frage als die gestellte Frage - es wird so gerahmt, als ob als zufällig betrachtet wird, funktioniert jedoch nicht, wenn als fest betrachtet wird, was wahrscheinlich das OP im Sinn hatte. Wenn behoben ist, habe ich keine bessere Antwort alsμ μ μ min(μ^1,...,μ^n)
Wenn wir nur Schätzungen für Mittelwert und Kovarianz berücksichtigen, können wir als eine einzelne Stichprobe aus der multivariaten Normalverteilung behandeln. Eine einfache Möglichkeit, eine Schätzung des Minimums zu erhalten, besteht darin, eine große Anzahl von Stichproben aus , das Minimum jeder Stichprobe zu berechnen und dann den Mittelwert dieser Minima zu ermitteln.(μ1,...,μn) MVN(μ^,Σ)
Das obige Verfahren und seine Grenzen in Bayesian verstanden werden - die Notation von der Einnahme Wikipedia auf MVN , wenn die bekannte Kovarianz des Schätzer ist , und wir haben eine Beobachtung, die gemeinsame posteriori Verteilung ist wobei und aus dem Prior stammen, wo, bevor wir irgendwelche Daten beobachten, nehmen wir den Prior ). Da Sie wahrscheinlich nicht bereit sind, mit Prioritäten zu versehen , können wir das Limit als , was zu einem flachen Prior führt und der hintere zuΣ μ∼MVN(μ^+mλ01+m,1n+mΣ) λ0 m μ∼MVN(λ0,m−1Σ μ m→0 μ∼MVN(μ^,Σ) . Angesichts des flachen Prior gehen wir jedoch implizit davon aus, dass sich die Elemente von unterscheiden (wenn alle reellen Zahlen gleich wahrscheinlich sind, ist es sehr unwahrscheinlich, ähnliche Werte zu erhalten).μ
Eine schnelle Simulation zeigt, dass die Schätzung mit diesem Verfahren leicht überschätzt, wenn sich die Elemente von unterscheiden, und wenn die Elemente ähnlich sind. Man könnte argumentieren, dass dies ohne Vorkenntnisse korrektes Verhalten ist. Wenn Sie bereit sind, zumindest einige vorherige Informationen anzugeben (z B. ), können sich die Ergebnisse für Ihren Anwendungsfall etwas besser verhalten.min(μ) μ min(μ) m=0.1
Wenn Sie bereit sind, mehr Struktur anzunehmen, können Sie möglicherweise eine bessere Verteilung als normal wählen. Es kann auch sinnvoll sein, Stan oder einen anderen MCMC-Sampler zu verwenden, um die Schätzungen von anzupassen . Auf diese Weise erhalten Sie eine Reihe von Stichproben von , die die Unsicherheit in den Schätzern selbst widerspiegeln, einschließlich ihrer Kovarianzstruktur (möglicherweise umfangreicher als das, was MVN bieten kann). Noch einmal, Sie können dann das Minimum für jede Probe berechnen, um eine posteriore Verteilung über die Minima zu erhalten, und den Mittelwert dieser Verteilung nehmen, wenn Sie eine Punktschätzung benötigen.μ (μ1,...,μn)
quelle