Hinweis: Ich stelle eine Frage eines ehemaligen Studenten, der aus technischen Gründen nicht in der Lage ist, selbst zu posten.
Ausgehend von einer iid-Stichprobe aus einer Weibull-Verteilung mit pdf
gibt es eine nützliche fehlende Variablendarstellung
und daher einen zugehörigen EM-Algorithmus (Erwartungsmaximierung), der sein könnte verwendet, um die MLE vonzu finden, anstatt eine einfache numerische Optimierung zu verwenden?
Antworten:
Ich denke die Antwort ist ja, wenn ich die Frage richtig verstanden habe.
Schreibe . Dann wird eine EM - Algorithmus Art von Iteration, beginnend mit beispielsweise k = 1 , istzich=xki k^=1
E - Schritt: z i = x k iz^i=xk^i
M - Schritt: k = nk^=n[∑(z^i−1)logxi]
Dies ist ein Sonderfall (der Fall ohne Zensur und ohne Kovariaten) der von Aitkin und Clayton (1980) für Weibull-Proportional-Hazards-Modelle vorgeschlagenen Iteration. Es ist auch in Abschnitt 6.11 von Aitkin et al. (1989) zu finden.
Aitkin, M. und Clayton, D., 1980. Die Anpassung von Exponential-, Weibull- und Extremwertverteilungen an komplexe zensierte Überlebensdaten unter Verwendung von GLIM. Applied Statistics , S. 156-163.
Aitkin, M., Anderson, D., Francis, B. und Hinde, J., 1989. Statistical Modeling in GLIM . Oxford University Press. New York.
quelle
Das Weibull MLE ist nur numerisch lösbar:
Sei mitβ,
1) Likelihoodfunction :
lügt-Likelihoodfunction :
2) MLE-Problem : 3) Maximierungum0-Gradienten: ∂ l
Pluggingλ∗ into the second 0-gradient condition:
This equation is only numerically solvable, e.g. Newton-Raphson algorithm.β^∗ can then be placed into λ∗ to complete the ML estimator for the Weibull distribution.
quelle
Though this is an old question, it looks like there is an answer in a paper published here: http://home.iitk.ac.in/~kundu/interval-censoring-REVISED-2.pdf
quelle
In this case the MLE and EM estimators are equivalent, since the MLE estimator is actually just a special case of the EM estimator. (I am assuming a frequentist framework in my answer; this isn't true for EM in a Bayesian context in which we're talking about MAP's). Since there is no missing data (just an unknown parameter), the E step simply returns the log likelihood, regardless of your choice ofk(t) . The M step then maximizes the log likelihood, yielding the MLE.
EM would be applicable, for example, if you had observed data from a mixture of two Weibull distributions with parametersk1 and k2 , but you didn't know which of these two distributions each observation came from.
quelle