Hilfe bei der Erwartungsmaximierung aus Papier: Wie kann die vorherige Verteilung einbezogen werden?

9

Die Frage basiert auf dem Artikel mit dem Titel: Bildrekonstruktion in der diffusen optischen Tomographie unter Verwendung des gekoppelten Strahlungstransport-Diffusions-Modells

Download-Link

Die Autoren wenden EM-Algorithmus sparsity Regularisierung einer unbekannten Vektors die Pixel eines Bildes zu schätzen. Das Modell ist gegeben durchl1μ

(1)y=Aμ+e
Die Schätzung ist in Gleichung (8) als angegeben

(2)μ^=argmaxlnp(y|μ)+γlnp(μ)

In meinem Fall habe ich als Filter der Länge und sind Vektoren, die die Filter darstellen. So,μLμL×1

Das Modell kann wie folgt umgeschrieben werden:

(3)y(n)=μTa(n)+v(n)

Frage: Problemformulierung: (n mal 1) ist die unbeobachtete Eingabe und ist der mit unbekannter Varianz additives Rauschen. Die MLE-Lösung basiert auf Expectation Maximization (EM).μ(n){e(n)}σe2

In der Arbeit ist Gleichung (19) die Funktion - die vollständige Log-Wahrscheinlichkeit, aber für meinen Fall verstehe ich nicht, wie ich die Verteilung von in den vollständigen Log-Likelihood-Ausdruck aufnehmen kann. AA,μ

Wie hoch ist die vollständige Log-Wahrscheinlichkeit bei Verwendung von EM von einschließlich der vorherigen Verteilung?y

SKM
quelle
Wollen Sie tatsächlich die Log-Wahrscheinlichkeit oder wollen Sie stattdessen die Log-Posterior? Nur letzteres wird den Laplace-Prior einschließen. Ersteres kann nur erhalten werden, indem Sie das Protokoll der Wahrscheinlichkeit nehmen, das Sie anscheinend bereits ausgeschrieben haben
Ich möchte zwei Ausdrücke: (1) Einer, der zum Auffinden der Fisher-Informationsmatrix verwendet wird, und (2) der andere sind das PDF des vollständigen Datensatzes, der die verborgene Variable und die Beobachtungen enthält, die das Gelenk bilden Wahrscheinlichkeitsdichte der beobachteten Daten als Funktion des Parameters . Das PDF, das ich geschrieben habe, gilt für das MA-Modell zur blinden Schätzung von . Aber wie wird es für die Sparsity Constraint = Laplacian Prior anders sein, so dass die Fisher Information Matrix aus den partiellen Ableitungen der Log-Wahrscheinlichkeit gefunden werden kann. θ θZθθ
SKM
@ Xi'an: Ich verstehe nicht, wie man die 3 PDFs einfügt, die den Prior in die Formulierung der Log-Wahrscheinlichkeit einbeziehen. Ich kann die Maximierung herausarbeiten, die darin besteht, die partielle Ableitung zu nehmen und gleich Null zu sein. Könnten Sie bitte eine Antwort mit dem explizit ausgeschriebenen Wahrscheinlichkeitsausdruck geben? Dies wird wirklich helfen
SKM

Antworten:

3

Wenn wir das Ziel als Die Darstellung auf der Basis von EM ist für ein beliebiges aufgrund der Zerlegung oder was für einen beliebigen Wert von funktioniert (da es auf dem lhs keinen gibt ) und funktioniert daher auch für jede Erwartung in :

argmaxθL(θ|x)π(θ)=argmaxθlogL(θ|x)+logπ(θ)
logL(θ|x)=E[logL(θ|x,Z)|x,θ]E[logq(Z|x,θ)|x,θ]
θ
q(z|x,θ)=f(x,z|θ)/g(x|θ)
g(x|θ)=f(x,z|θ)/q(z|x,θ)
zZ
logg(x|θ)=logf(x,z|θ)logq(z|x,θ)=E[logf(x,Z|θ)logq(Z|x,θ)|x]
für jede bedingte Verteilung von bei , zum Beispiel . Wenn wir also in mit Lösung haben wir während durch die Standardargumente von EM. Daher ist ZX=xq(z|x,θ)θ
E[logL(θ|x,Z)|x,θ]+logπ(θ)
θ1
E[logL(θ1|x,Z)|x,θ]+logπ(θ1)E[logL(θ|x,Z)|x,θ]+logπ(θ)
E[logq(Z|x,θ)|x,θ]E[logq(Z|x,θ1)|x,θ]
E[logL(θ1|x,Z)|x,θ]+logπ(θ1)E[logL(θ|x,Z)|x,θ]+logπ(θ)
und die Verwendung des Ziels als E-Schritt führt zu einer Zunahme des posterioren bei jedem M. Schritt, was bedeutet, dass der modifizierte EM-Algorithmus zu einem lokalen MAP konvergiert.
E[logL(θ|x,Z)|x,θ]+logπ(θ)
Xi'an
quelle
Danke für Ihre Antwort. Stellt das PDF von ? Könnten Sie bitte erklären, warum es zwei Erwartungen gibt, wenn In der in der zweiten Zeile erwähnten Gleichung subtrahiert wird? q()ZE[logq(.)]
SKM
Ich habe einige Erklärungen hinzugefügt, aber Sie sollten in einem Lehrbuch die Ableitung des EM-Algorithmus überprüfen, da dies Standardmaterial ist.
Xi'an
1

Ich denke nicht, dass eine monoton zunehmende logarithmisch-posteriore (oder logarithmische Wahrscheinlichkeit für MLE) ausreicht, um die Konvergenz zum stationären Punkt der MAP-Schätzung (oder MLE) zu zeigen. Beispielsweise können die Inkremente beliebig klein werden. In der berühmten Veröffentlichung von Wu 1983 ist eine ausreichende Bedingung für die Konvergenz zum stationären Punkt der EM die Differenzierbarkeit in beiden Argumenten der Funktion der unteren Grenze.

Jim.Z
quelle