Können Sie ein Beispiel für einen MLE-Schätzer für den voreingenommenen Mittelwert angeben?
Ich bin nicht auf der Suche nach einem Beispiel, das MLE-Schätzer im Allgemeinen durch Verstöße gegen die Regularitätsbedingungen bricht.
Alle Beispiele, die ich im Internet sehe, beziehen sich auf die Varianz, und ich kann anscheinend nichts finden, was mit dem Mittelwert zu tun hat.
BEARBEITEN
@MichaelHardy lieferte ein Beispiel, in dem wir eine voreingenommene Schätzung des Mittelwerts der Gleichverteilung unter Verwendung von MLE unter einem bestimmten vorgeschlagenen Modell erhalten.
jedoch
https://en.wikipedia.org/wiki/Uniform_distribution_(continuous)#Estimation_of_midpoint
legt nahe, dass MLE ein einheitlich minimal unverzerrter Schätzer des Mittelwerts ist, eindeutig unter einem anderen vorgeschlagenen Modell.
Zu diesem Zeitpunkt ist mir immer noch nicht klar, was unter MLE-Schätzung zu verstehen ist, wenn es sich um eine sehr modellabhängige Hypothese handelt, im Gegensatz zu einem modellneutralen Stichproben-Mittelwertschätzer. Am Ende bin ich daran interessiert, etwas über die Population abzuschätzen und kümmere mich nicht wirklich um die Schätzung eines Parameters eines hypothetischen Modells.
BEARBEITEN 2
Wie @ChristophHanck dem Modell mit zusätzlichen Informationen vorschlug, gelang es jedoch nicht, die MSE zu reduzieren.
Wir haben auch zusätzliche Ergebnisse:
http://www.maths.manchester.ac.uk/~peterf/CSI_ch4_part1.pdf (S. 61) http://www.cs.tut.fi/~hehu/SSP/lecture6.pdf (Folie 2) http: / /www.stats.ox.ac.uk/~marchini/bs2a/lecture4_4up.pdf (Folie 5)
Wenn ein höchst effizienter unverzerrter Schätzer ˆθ von θ existiert (dh ˆθ ist unverzerrt und seine Varianz ist gleich dem CRLB), dann wird es das Maximum-Likelihood-Schätzverfahren erzeugen.
"Außerdem ist ein effizienter Schätzer der ML-Schätzer."
Da der MLE mit freien Modellparametern unvoreingenommen und effizient ist, ist dies per Definition der "Maximum Likelihood Estimator"?
EDIT 3
@AlecosPapadopoulos hat ein Beispiel mit Halbnormalverteilung im Matheforum.
/math/799954/can-the-maximum-likelihood-estimator-be-unbias-and-fail-to-achieve-cramer-rao
Es verankert keine seiner Parameter wie im einheitlichen Fall. Ich würde sagen, das regelt es, obwohl er die Tendenz des Mittelwertschätzers nicht bewiesen hat.
quelle
Antworten:
Christoph Hanck hat die Details seines vorgeschlagenen Beispiels nicht veröffentlicht. Ich nehme an, er meint die Gleichverteilung über das Intervall basierend auf einer iid-Stichprobe X 1 , … , X n mit einer Größe von mehr als n = 1.[ 0 , θ ] , X1, … , Xn n = 1.
Der Mittelwert ist .θ / 2
Die MLE des Mittelwerts beträgtmax{X1,…,Xn}/2.
Das ist vorgespannt, da also E ( max / 2 ) < θ / 2.Pr(max<θ)=1, E(max/2)<θ/2.
PS: beachten Sie, wir sollten vielleicht , dass die beste unverzerrter Schätzer des Mittel ist nicht die Probe Mittelwert, sondern ist n + 1θ/2 Der Stichprobenmittelwert ist ein mieser Schätzer vonθ/2,da für einige Stichproben der Stichprobenmittelwert kleiner als1 ist
Ich vermute, dass die Pareto-Distribution ein weiterer solcher Fall ist. Hier ist das Wahrscheinlichkeitsmaß: Der erwartete Wert istα
Ich habe den erwarteten Wert der MLE für den Mittelwert nicht berechnet, daher weiß ich nicht, wie stark die Abweichung ist.
quelle
Hier ist ein Beispiel, das meiner Meinung nach einige überraschen könnte:
Bei der logistischen Regression ist für jede endliche Stichprobengröße mit nicht deterministischen Ergebnissen (dh ) ein geschätzter Regressionskoeffizient nicht nur voreingenommen, sondern der Mittelwert des Regressionskoeffizienten ist tatsächlich undefiniert.0<pi<1
Dies liegt daran, dass für jede endliche Stichprobengröße eine positive Wahrscheinlichkeit (wenn auch sehr gering, wenn die Anzahl der Stichproben im Vergleich zur Anzahl der Regressionsparameter groß ist) besteht, eine perfekte Trennung der Ergebnisse zu erzielen. In diesem Fall sind die geschätzten Regressionskoeffizienten entweder oder ∞ . Eine positive Wahrscheinlichkeit, entweder - ∞ oder ∞ zu sein, impliziert, dass der erwartete Wert undefiniert ist.−∞ ∞ −∞ ∞
Weitere Informationen zu diesem speziellen Thema finden Sie unter Hauck-Donner-Effekt .
quelle
Obwohl @MichaelHardy darauf hingewiesen hat, folgt hier ein ausführlicheres Argument, warum die MLE des Maximums (und damit des Mittelwerts durch Invarianz) nicht unverzerrt ist, obwohl sie sich in einem anderen Modell befindet (siehe die Bearbeitung unten).θ/2
Wir schätzen die Obergrenze der Gleichverteilung . Hier ist y ( n ) die MLE für eine Zufallsstichprobe y . Wir zeigen, dass y ( n ) nicht unvoreingenommen ist. Sein cdf ist F y ( n ) ( x )U[0,θ] y(n) y y(n)
Somit ist seine Dichte
fy(n)(x)={n
EDIT: Es ist in der Tat der Fall, dass (siehe die Diskussion in den Kommentaren) die MLE für den Mittelwert unverzerrt ist, in dem sowohl die untere Schranke als auch die obere Schranke b unbekannt sind. Dann wird das Minimum Y ( 1 ) ist das MLE für a , mit (Details weggelassen) Erwartungswert E ( Y ( 1 ) ) = n a + ba b Y(1) a
während
E(Y(n))=nb+a
EDIT 2: Um auf Henrys Punkt näher einzugehen, hier eine kleine Simulation für die MSE der Schätzer des Mittelwerts, die zeigt, dass die MSEs für die beiden Varianten identisch sind, wenn wir nicht wissen, dass die Untergrenze Null ist, während die MLE unverzerrt ist Dies legt nahe, dass der Schätzer, der die Kenntnis der Untergrenze einbezieht, die Variabilität verringert.
quelle
Vervollständigen Sie hier die Lücke in meiner Antwort auf math.se, auf die sich das OP bezieht .
Die log-Wahrscheinlichkeit der Stichprobe ist
so it is a method of moments estimator. It is unbiased since,
But, the resulting estimator for the mean is downward biased due to Jensen's inequality
quelle
The famous Neyman Scott problem has an inconsistent MLE in that it never even converges to the right thing. Motivates the use of conditional likelihood.
Take(Xi,Yi)∼N(μi,σ2) . The MLE of μi is (Xi+Yi)/2 and of σ2 is σ^2=∑ni=11ns2i with s2i=(Xi−μ^i)2/2+(Yi−μ^i)2/2=(Xi−Yi)2/4 which has expected value σ2/4 and so biased by a factor of 2.
quelle
There is an infinite range of examples for this phenomenon since
quelle