Warum wird der Erwartungsmaximierungsalgorithmus verwendet?

22

Nach dem, was ich noch nicht weiß, kann der EM-Algorithmus verwendet werden, um die maximale Wahrscheinlichkeit zu ermitteln, wenn die partiellen Ableitungen in Bezug auf die Parameter der Wahrscheinlichkeit auf Null gesetzt werden. Dies ergibt einen Satz von Gleichungen, die nicht analytisch gelöst werden können. Aber wird der EM-Algorithmus benötigt, anstatt eine numerische Technik zu verwenden, um zu versuchen, ein Maximum der Wahrscheinlichkeit in Bezug auf die Beschränkung des genannten Gleichungssystems zu finden?

user782220
quelle

Antworten:

20

Die Frage ist berechtigt und ich hatte die gleiche Verwirrung, als ich den EM-Algorithmus zum ersten Mal lernte.

Im Allgemeinen definiert der EM-Algorithmus einen iterativen Prozess, der es ermöglicht, die Wahrscheinlichkeitsfunktion eines parametrischen Modells zu maximieren, wenn einige Variablen des Modells "latent" oder unbekannt sind (oder als solche behandelt werden).

Theoretisch können Sie für denselben Zweck einen Minimierungsalgorithmus verwenden, um das Maximum der Wahrscheinlichkeitsfunktion für alle Parameter numerisch zu ermitteln. In der Realität wäre diese Minimierung jedoch:

  1. viel rechenintensiver
  2. weniger robust

Eine sehr häufige Anwendung der EM-Methode ist die Anpassung eines Mischungsmodells. In diesem Fall wird das Problem erheblich vereinfacht, wenn man die Variable betrachtet, die jede Stichprobe einer der Komponenten als "latente" Variablen zuweist.

Schauen wir uns ein Beispiel an. Wir haben N Proben aus einer Mischung von 2 Normalverteilungen extrahiert. Um die Parameter ohne EM zu finden, sollten wir minimieren:s={sich}

-LogL(x,θ)=-Log[ein1exp((x-μ1)22σ12)+ein2exp((x-μ2)22σ22)]

Im Gegenteil, unter Verwendung des EM-Algorithmus "ordnen" wir zuerst jede Probe einer Komponente zu ( E-Schritt ) und passen dann jede Komponente einzeln an (oder maximieren die Wahrscheinlichkeit ) ( M-Schritt ). In diesem Beispiel ist der M-Schritt einfach ein gewichteter Mittelwert, um und . Das Durchlaufen dieser beiden Schritte ist eine einfachere und robustere Methode zum Minimieren von .σ k - log L ( x , θ )μkσk-LogL(x,θ)

user2304916
quelle
12

EM wird nicht benötigt, anstatt eine numerische Methode zu verwenden, da EM auch eine numerische Methode ist. Es ist also kein Ersatz für Newton-Raphson. EM ist für den speziellen Fall vorgesehen, dass in Ihrer Datenmatrix Werte fehlen. Man betrachte eine Stichprobe der bedingten Dichte . Dann ist die log-Wahrscheinlichkeit dafür Nehmen wir nun an, Sie haben keinen vollständigen Datensatz, so dass aus beobachteten Daten besteht und fehlende (oder latente) Variablen , so dass . Dann ist die Log-Wahrscheinlichkeit für die beobachteten Daten X=(X1,...,Xn)fX|Θ(x|θ)

l(θ;X)=lOGfX|Θ(X|θ)
XY.ZX=(Y.,Z)
lObs(θ,Y.)=lOGfX|Θ(Y.,z|θ)νz(dz)
Im Allgemeinen können Sie dieses Integral nicht direkt berechnen und Sie werden nicht erhalten eine geschlossene Lösung für . Zu diesem Zweck verwenden Sie die EM-Methode. Es gibt zwei Schritte, die mal durchlaufen werden . In diesem Schritt sind dies die Erwartungsschritte, in denen Sie wobei die Schätzung von im -Schritt ist. Berechnen Sie dann den Maximierungsschritt, in dem Sie bezüglich und setlObs(θ,Y.)ich(ich+1)th
Q.(θ|θ(ich))=Eθ(ich)[l(θ;X|Y.]
θ(ich)ΘichthQ.(θ|θ(ich))θθ(ich+1)=meinxQ.(θ|θich) . Anschließend wiederholen Sie diese Schritte, bis die Methode zu einem Wert konvergiert, der Ihre Schätzung sein wird.

Wenn Sie weitere Informationen zu der Methode, ihren Eigenschaften, Beweisen oder Anwendungen benötigen, schauen Sie sich einfach den entsprechenden Wiki- Artikel an.

Andy
quelle
1
+1 ... EM gilt jedoch nicht nur für den Fall fehlender Werte.
Glen_b
@Andy: Selbst unter Berücksichtigung des Falls fehlender Daten verstehe ich immer noch nicht, warum es nicht funktioniert, generische numerische Methoden zu verwenden, um einen Punkt zu finden, an dem die partiellen Ableitungen Null sind.
user782220
Danke Glen, ich wusste es nur im Zusammenhang mit fehlenden Werten / latenten Variablen. @ user782220: Wenn Sie keine geschlossene Lösung der Log-Likelihood-Ableitung haben können, wird Ihr Parameter nicht identifiziert, wenn Sie die Ableitung auf Null setzen. Deshalb verwenden Sie in diesem Fall numerische Methoden. Eine Erklärung und ein Beispiel finden Sie in der Vorlesung hier: people.stat.sfu.ca/~raltman/stat402/402L5.pdf
Andy
1

EM wird verwendet, weil es oft unmöglich oder unmöglich ist, die Parameter eines Modells direkt zu berechnen, um die Wahrscheinlichkeit eines Datensatzes bei diesem Modell zu maximieren.

TheGrimmScientist
quelle