Die Frage basiert auf dem Artikel mit dem Titel: Bildrekonstruktion in der diffusen optischen Tomographie unter Verwendung des gekoppelten Strahlungstransport-Diffusions-Modells
Die Autoren wenden EM-Algorithmus sparsity Regularisierung einer unbekannten Vektors die Pixel eines Bildes zu schätzen. Das Modell ist gegeben durch
In meinem Fall habe ich als Filter der Länge und sind Vektoren, die die Filter darstellen. So,
Das Modell kann wie folgt umgeschrieben werden:
Frage: Problemformulierung: (n mal 1) ist die unbeobachtete Eingabe und ist der mit unbekannter Varianz additives Rauschen. Die MLE-Lösung basiert auf Expectation Maximization (EM).
In der Arbeit ist Gleichung (19) die Funktion - die vollständige Log-Wahrscheinlichkeit, aber für meinen Fall verstehe ich nicht, wie ich die Verteilung von in den vollständigen Log-Likelihood-Ausdruck aufnehmen kann.
Wie hoch ist die vollständige Log-Wahrscheinlichkeit bei Verwendung von EM von einschließlich der vorherigen Verteilung?
Antworten:
Wenn wir das Ziel als Die Darstellung auf der Basis von EM ist für ein beliebiges aufgrund der Zerlegung oder was für einen beliebigen Wert von funktioniert (da es auf dem lhs keinen gibt ) und funktioniert daher auch für jede Erwartung in :
quelle
Ich denke nicht, dass eine monoton zunehmende logarithmisch-posteriore (oder logarithmische Wahrscheinlichkeit für MLE) ausreicht, um die Konvergenz zum stationären Punkt der MAP-Schätzung (oder MLE) zu zeigen. Beispielsweise können die Inkremente beliebig klein werden. In der berühmten Veröffentlichung von Wu 1983 ist eine ausreichende Bedingung für die Konvergenz zum stationären Punkt der EM die Differenzierbarkeit in beiden Argumenten der Funktion der unteren Grenze.
quelle