Warum enthält der Name EM-Algorithmus ein E.

8

Ich verstehe, wo der E-Schritt im Algorithmus stattfindet (wie im Abschnitt "Mathematik" unten erläutert). Meiner Meinung nach ist der Schlüsseleinfallsreichtum des Algorithmus die Verwendung der Jensen-Ungleichung, um eine Untergrenze für die Log-Wahrscheinlichkeit zu erstellen. In diesem Sinne Expectationwird einfach genommen, um die logarithmische Wahrscheinlichkeit neu zu formulieren, um in Jensens Ungleichung zu passen (dh für die konkave Funktion.)E(f(x))<f(E(x))

Gibt es einen Grund, warum der E-Schritt so genannt wird? Gibt es eine Bedeutung für das, was wir erwarten (dh ? Ich habe das Gefühl, dass mir eine Intuition fehlt, warum die Erwartung so zentral ist, anstatt einfach nur ein Nebeneffekt der Erwartung zu sein Verwendung von Jensens Ungleichung.p(xi,zi|θ)

EDIT: Ein Tutorial sagt:

Der Name 'E-Schritt' kommt von der Tatsache, dass man normalerweise nicht die Wahrscheinlichkeitsverteilung über Abschlüsse explizit bilden muss, sondern nur 'erwartete' ausreichende Statistiken über diese Abschlüsse berechnen muss.

Was bedeutet es "man muss die Wahrscheinlichkeitsverteilung über Vervollständigungen normalerweise nicht explizit bilden"? Wie würde diese Wahrscheinlichkeitsverteilung aussehen?


Anhang: E-Schritt im EM-Algorithmus

ll=ilogp(xi;θ)definition of log likelihood=ilogzip(xi,zi;θ)augment with latent variables z=ilogziQi(zi)p(xi,zi;θ)Qi(zi)Qi is a distribution for zi=ilogEzi[p(xi,zi;θ)Qi(zi)]taking expectations - hence the E in EMEzi[logp(xi,zi;θ)Qi(zi)]Using Jensen's rule for log which is concaveiziQi(zi)logp(xi,zi;θ)Qi(zi)Q function to maximize
Heisenberg
quelle
2
Mir ist nicht klar, was Sie fragen, aber ich habe immer angenommen, dass die Relevanz für die Benennung des E-Schritts darin besteht, dass Sie in gewisser Weise das fehlende "ausfüllen" oder "unterstellen", indem Sie die Erwartung annehmen. Zugegeben, das ist nicht genau das, was passiert, weil Sie was nicht dasselbe ist, als etwas für das anzuschließen fehlende Werte, aber operativ macht man oft so etwas. Wenn wir eine Datenerweiterung durchführen würden - was EM in vielerlei Hinsicht ähnlich ist. E θ [ log p ( x , Z ; θ ' ) X = x ] Z.zEθ[logp(x,Z;θ)X=x]Z
Kerl
Ja, das ist die Art von Diskussion, die ich führen möchte. .? Also , wenn Sie impute z sagen nach Erwartung unter“Die Erwartung dessen , was auch meinen Sie statt ?E θEzEθ
Heisen
Meine Erziehung bestand immer darin, das mit dem Parameter zu indizieren, der das Wahrscheinlichkeitsmaß indiziert, auf das sich die Erwartung bezieht. In CS machen sie es so, wie Sie es vorschlagen. Ich integriere und konditioniere auf gegen ein durch indiziertes Maß . Z X θEZXθ
Kerl
Bei der Anpassung von Gaußschen Gemischen hat der E-Schritt beispielsweise die fehlenden Klassenindikatoren unterstellt. Dies geschieht jedoch auf unscharfe Weise, indem die Verantwortlichkeiten für jede Beobachtung berechnet werden.
Kerl

Antworten:

11

Erwartungen sind für den EM-Algorithmus von zentraler Bedeutung. wird die mit den Daten verbundene Wahrscheinlichkeit als Erwartung wobei die Erwartung in Bezug auf die Randverteilung des latenten Vektors .p ( x 1 ,(x1,,xn) (z1,...,

p(x1,,xn;θ)=Znp(x1,,xn,z1,,zn;θ)dz=Znp(x1,,xn|z1,,zn,θ)p(z1,,zn;θ)dz=Eθ[p(x1,,xn|z1,,zn,θ)]
(z1,,zn)

Die Intuition hinter EM basiert ebenfalls auf einer Erwartung. Da nicht direkt optimiert werden kann, während kann, hängt aber von den nicht beobachteten . Die Idee ist, stattdessen die erwartete vollständige Log-Wahrscheinlichkeit zu maximieren Ausnahme, dass diese Erwartung auch von einem Wert von abhängt , der beispielsweise als wird, daher die Funktion zum Maximieren (in ) im M-Schritt: log p ( x 1 , ... , x n , z 1 , ... , z n ; θ ) z i E [ log p ( x 1 , ... , x n , z 1 , , z n 1 , , xlogp(x1,,xn;θ)logp(x1,,xn,z1,,zn;θ)zi θ θ 0 θQ( θ 0 ,θ)= E θ 0 [ log p ( x 1 , , x n , z 1 , , z n ; θ ) | x 1 , , x n ]

E[logp(x1,,xn,z1,,zn;θ)|x1,,xn]
θθ0θ
Q(θ0,θ)=Eθ0[logp(x1,,xn,z1,,zn;θ)|x1,,xn]
Jensens Ungleichung ist nur eine Rechtfertigung für die Zunahme der beobachteten Wahrscheinlichkeit bei jedem M-Schritt.
Xi'an
quelle
1
Danke für die Erklärung. Da sich unsere posteriore Verteilung für die latenten Vektoren bei jedem Schritt ändert, ändert sich bei jedem Schritt auch? Wenn ja, ist dieses Bild etwas verwirrend, da es eine feste rote Kurve gibt, die , während sich bei jedem Schritt "ändert", da wir über unseren aktuellen Glauben an durchschnittlich sind die latenten Vektoren in diesem Schritt. Eθ[p(x1,,xn,z,,z,θ)]p(x;θ)p(x;θ)z
Heisenberg
Entschuldigung, ich verstehe die Frage nicht: Bei jedem EM-Schritt wird der Wert von ändert und erhöht sich. Dies bedeutet nicht, dass sich die Wahrscheinlichkeitsfunktion selbst ändert. Eθ[p(x1,,xn|z1,,zn,θ)]
Xi'an
Ist nicht ? Wenn sich die RHS gemäß unserer hinteren Überzeugung über den latenten Vektor ändert, ändert sich auch die LHS? p(x1,,xn;;θ)=E.θ[p(x1,,xn|z1,,zn,θ)]]
Heisenberg
Diese Identität ist in meiner Antwort. Beide Seiten nehmen unterschiedliche Werte an, wenn variiert. In dieser Gleichung gibt es jedoch keine Vorstellung von posteriorem Glauben, da (a) festgelegt ist und (b) die 's marginal betrachtet werden. θθzich
Xi'an
1
Bei jeder Iteration der E-Schritt , um das Integral zu berechnenDaher die Zielfunktion, Änderungen bei jeder Iteration zu maximieren . Dies sagt nichts über die ursprüngliche Zielwahrscheinlichkeit was nur von einem einzelnen abhängt . p ( z | x , θ t ) Q.tp(z|x,θt)
Q.(θt,θ)=E.θt[Logp(x1,,xn,z1,,zn;;θ)|x1,,xn]].
t θp(x1,,xn;;θ)=E.θ[p(x1,,xn|z1,,zn,θ)]]θ
Xi'an
1

Xi'ans Antwort ist sehr gut, nur eine Erweiterung bezüglich der Bearbeitung.

Der Name 'E-Schritt' kommt von der Tatsache, dass man normalerweise nicht die Wahrscheinlichkeitsverteilung über Abschlüsse explizit bilden muss, sondern nur 'erwartete' ausreichende Statistiken über diese Abschlüsse berechnen muss.

Da der Wert von nicht beobachtet wird, schätzen wir eine Verteilung für jeden Datenpunkt ab den nicht beobachteten Daten. Die Q-Funktion ist die Summe der erwarteten Log-Wahrscheinlichkeiten überq x ( Z ) x Q x ( z ) Q ( θ ) = Σ x E q x [ log p ( x , z |zqx(z)xcompletionsqx(z)

Q.(θ)=xE.qx[Logp(x,z|θ)]]

Das erwähnte probability distribution over completionssollte sich auf beziehen . Für einige Verteilungen (insbesondere die Exponentialfamilie, da die Wahrscheinlichkeit in ihrer logarithmischen Form vorliegt) müssen wir nur die erwartete (anstelle der erwarteten Wahrscheinlichkeit) kennen, um zu berechnen und zu maximieren .Q ( θ )p(x,z|θ)sufficient statisticsQ.(θ)


Es gibt eine sehr gute Einführung in Kapitel 19.2 der probabilistischen grafischen Modelle.

dontloo
quelle