Anwenden von Expectation Maximization auf Beispiele für Münzwürfe

18

Ich habe in letzter Zeit die Expectation Maximization selbst studiert und mir dabei einige einfache Beispiele geschnappt:

Ab hier : Es gibt drei Münzen , und mit , und der jeweiligen Wahrscheinlichkeit, auf dem Kopf zu landen, wenn sie geworfen werden. Werfen Sie . Wenn das Ergebnis Head ist, wirf dreimal, andernfalls wirf dreimal. Die beobachteten Daten, die von und sind wie folgt: HHH, TTT, HHH, TTT, HHH. Die versteckten Daten sind das Ergebnis von . Schätzen Sie , und .c0c1c2p0p1p2c0c1c2c1c2c0p0p1p2

Und von hier : Es gibt zwei Münzen und wobei und die jeweilige Wahrscheinlichkeit für die Landung auf dem Kopf sind, wenn sie geworfen werden. Wähle in jeder Runde eine Münze nach dem Zufallsprinzip und wirf sie zehnmal. Notieren Sie die Ergebnisse. Die beobachteten Daten sind die Wurfergebnisse dieser beiden Münzen. Wir wissen jedoch nicht, welche Münze für eine bestimmte Runde ausgewählt wurde. Schätzen Sie und .cAcBpApBpApB

Obwohl ich die Berechnungen erhalten kann, kann ich die Art und Weise, wie sie gelöst werden, nicht mit der ursprünglichen EM-Theorie in Beziehung setzen. Insbesondere sehe ich während des M-Schritts in beiden Beispielen nicht, wie sie etwas maximieren. Es scheint nur, dass sie die Parameter neu berechnen, und irgendwie sind die neuen Parameter besser als die alten. Darüber hinaus sehen sich die beiden E-Steps nicht einmal ähnlich, ganz zu schweigen vom E-Step der ursprünglichen Theorie.

Wie genau funktionieren diese Beispiele?

IcySnow
quelle
Wie viele Instanzen desselben Experiments erhalten wir im ersten Beispiel? Was ist im zweiten Beispiel das Gesetz "eine Münze nach dem Zufallsprinzip auswählen"? Wie viele Runden beobachten wir?
Raphael
Die PDF-Dateien, die ich verlinkt habe, lösen diese beiden Beispiele bereits Schritt für Schritt. Allerdings verstehe ich den verwendeten EM-Algorithmus nicht wirklich.
IcySnow
@IcySnow, verstehst du das Konzept der Erwartung und der bedingten Erwartung einer Zufallsvariablen?
Nicholas Mancuso
Ich verstehe die Grunderwartung einer Zufallsvariablen und die bedingte Wahrscheinlichkeit. Die bedingte Erwartung, ihre Ableitung und ausreichende Statistik sind mir jedoch nicht vertraut.
IcySnow

Antworten:

12

(Diese Antwort verwendet den zweiten von Ihnen angegebenen Link.)

Erinnern Sie sich an die Definition der Wahrscheinlichkeit: , wo in unserem Fall sind die Schätzer für die Wahrscheinlichkeit , dass Münzen A und B jeweils Landköpfe, , um die Ergebnisse unserer Experimente wobei jeder besteht aus 10 Flips und ist die in jedem Experiment verwendete Münze.θ = ( θ A , θ B ) X = ( X 1 , ... , X 5 ) X i Z = ( Z 1 , ... , Z 5 )

L[θ|X]=Pr[X|θ]=ZPr[X,Z|θ]
θ=(θA,θB)X=(X1,,X5)XichZ=(Z1,,Z5)

Wir wollen den Maximum-Likelihood-Schätzer . Der Expectation-Maximization (EM) -Algorithmus ist eine solche Methode, um (zumindest lokal) . Es funktioniert, indem es die bedingte Erwartung findet, die dann verwendet wird, um zu maximieren . Die Idee ist, dass wir durch kontinuierliches Finden eines wahrscheinlicheren (dh wahrscheinlicheren) in jeder Iteration kontinuierlich erhöhen, was wiederum die Wahrscheinlichkeitsfunktion erhöht. Vor dem Entwurf eines EM-basierten Algorithmus müssen drei Schritte ausgeführt werden. & thgr; & thgr;& thgr;Pr[X,Z| θ]θ^θ^θθPr[X,Z|θ]

  1. Konstruieren Sie das Modell
  2. Bedingte Erwartung unter dem Modell berechnen (E-Step)
  3. Maximieren Sie unsere Wahrscheinlichkeit, indem Sie unsere aktuelle Schätzung von (M-Step) aktualisieren.θ

Konstruieren Sie das Modell

Bevor wir mit EM weitermachen, müssen wir herausfinden, was genau wir berechnen. Im E-Schritt berechnen wir genau den erwarteten Wert für . Also, was ist dieser Wert wirklich? Beachten Sie, dass Der Grund dafür ist, dass wir 5 Experimente durchführen müssen und nicht wissen, welche Münzen in den einzelnen verwendet wurden. Die Ungleichung ist auflog Pr [ X , Z | θ ]LogPr[X,Z|θ]Log

logPr[X,Z|θ]=ich=15LogC{EIN,B}Pr[Xich,Zich=C|θ]=ich=15LogC{EIN,B}Pr[Zich=C|Xich,θ]Pr[Xich,Zich=C|θ]Pr[Zich=C|Xich,θ]ich=15C{EIN,B}Pr[Zich=C|Xich,θ]LogPr[Xich,Zich=C|θ]Pr[Zich=C|Xich,θ].
Logkonkav sein und Jensens Ungleichung anwenden. Der Grund, warum wir diese Untergrenze brauchen, ist, dass wir das arg max nicht direkt mit der ursprünglichen Gleichung berechnen können. Wir können es jedoch für die letzte Untergrenze berechnen.

Was ist nun ? Es ist die Wahrscheinlichkeit, dass wir bei Experiment und Münze . Mit bedingten Wahrscheinlichkeiten haben wirC X i & thgr ; Pr [ Z i = C | X i , θ ] = Pr [ X i , Z i = C | θ ]Pr[Zich=C|Xich,θ]CXiθ

Pr[Zi=C|Xi,θ]=Pr[Xi,Zi=C|θ]Pr[Xi|θ].

Obwohl wir einige Fortschritte erzielt haben, sind wir mit dem Modell noch nicht fertig. Mit welcher Wahrscheinlichkeit hat eine bestimmte Münze die Sequenz ? Lassen Sie Jetzt ist eindeutig nur die Wahrscheinlichkeit , unter den beiden Möglichkeiten der oder . Da ist, ist h i = # Köpfe in  X i Pr [ X i , Z i = C | θ ] = 1Xihi=#heads in Xi

Pr[Xi,Zi=C|θ]=12θChi(1θC)10hi,  for  C{A,B}.
Pr[Xi|θ]Zi=AZi=BPr[Zi=A]=Pr[Zi=B]=1/2
Pr[Xi|θ]=1/2(Pr[Xi|Zi=A,θ]+Pr[Xi|Zi=B,θ]).

E-Step

Okay ... das hat nicht so viel Spaß gemacht, aber wir können jetzt mit der EM-Arbeit beginnen. Der EM-Algorithmus beginnt mit einer zufälligen Schätzung für . In diesem Beispiel haben wir . Wir berechnen Dieser Wert stimmt mit dem überein, was in der Zeitung steht. Jetzt können wir die erwartete Anzahl von Köpfen in aus Münze , berechnen Tun wir dasselbe für Münze , θθ0=(0.6,0.5)

Pr[Z1=A|X1,θ]=1/2(0.650.45)1/2((0.650.45)+(0.550.55))0.45.
X1=(H,T,T,T,H,H,T,H,T,H)A
E[#heads by coin A|X1,θ]=h1Pr[Z1=A|X1,θ]=50.452.2.
B
E[#heads by coin B|X1,θ]=h1Pr[Z1=B|X1,θ]=50.552.8.
Wir können dasselbe für die Anzahl der Schwänze berechnen, indem wir durch ersetzen . Dies wird für alle anderen Werte von und fortgesetzt . Dank der Linearität der Erwartung können wir herausfinden, h110h1Xihi 1i5
E[#heads by coin A|X,θ]=i=15E[#heads by coin A|Xi,θ]

M-Step

Mit unseren erwarteten Werten kommt nun der M-Schritt, bei dem wir unter Berücksichtigung unserer erwarteten Werte maximieren möchten . Dies geschieht durch einfache Normalisierung! Das gleiche gilt für . Dieser Prozess beginnt erneut mit dem E-Schritt und thgr; und setzt sich fort, bis die Werte für thgr; konvergieren (oder bis zu einem zulässigen Schwellenwert). In diesem Beispiel haben wir 10 Iterationen und . Bei jeder Iteration steigt der Wert von aufgrund der besseren Schätzung vonθ

θA1=E[#heads over X by coin A|X,θ]E[#heads and tails over X by coin A|X,θ]=21.321.3+9.60.71.
Bθ1θθ^=θ10=(0.8,0.52)Pr[X,Z|θ]θ .

In diesem Fall war das Modell ziemlich simpel. Die Dinge können ziemlich schnell viel komplizierter werden, jedoch wird der EM-Algorithmus immer konvergieren und wird immer einen Schätzer für die maximale Wahrscheinlichkeit erzeugen . Es kann ein lokaler Schätzer sein, aber um dies zu umgehen, können wir den EM-Prozess einfach mit einer anderen Initialisierung neu starten. Wir können dies eine konstante Anzahl von Malen tun und die besten Ergebnisse beibehalten (dh diejenigen mit der höchsten endgültigen Wahrscheinlichkeit).θ^

Nicholas Mancuso
quelle
Wenn irgendwelche Teile nicht klar sind, kann ich versuchen, sie auch zu erweitern.
Nicholas Mancuso
Es wird jetzt viel klarer. Was ich nicht wirklich verstehe, ist, warum die erwartete Anzahl der Köpfe für Münze A wie folgt berechnet wurde: E [#Köpfe nach Münze A | X1, θ] = h1⋅Pr [Z1 = A | X1, θ] = 5⋅0,45 ≈2,2? Das im ersten PDF erwähnte Problem ist komplizierter. Wenn es Ihnen nichts ausmacht, können Sie auch einige anschauliche Berechnungen dafür durchführen? Vielen Dank für Ihre Antwort.
IcySnow
@IcySnow, so weit die Erwartungsrechnung reicht: pro . Der Grund ist, dass Sie sich vorstellen können, dass es eine andere Indikator-Zufallsvariable gibt, wenn A verwendet wurde. Das Berechnen der Erwartung über Indikatorvariablen ist einfach die Wahrscheinlichkeit dieses Ereignisses. E[# heads by coin A|X1,θ]=# heads in X1Pr[Z1=A|X1,θ]=5Pr[Z1=A|X1,θ]
Nicholas Mancuso
Entschuldigung für die langsame Antwort. Dank Ihnen kann ich jetzt die Logik hinter den beiden Münzbeispielen wirklich verstehen, nachdem ich Ihre Antwort viele Male durchgesehen habe. Zu dieser Frage möchte ich noch eine letzte Frage stellen: Das Beispiel ab Seite 8 in dieser Folie cs.northwestern.edu/~ddowney/courses/395_Winter2010/em.ppt zeigt, dass wir im M-Step zuerst rechnen müssen die Ableitung der Log-Likelihood-Funktion und verwenden Sie sie, um die Erwartung zu maximieren. Warum steht so etwas nicht in den M-Steps der Münzwurfbeispiele? Weil diese M-Schritte nicht so aussehen, als würden sie irgendetwas maximieren
IcySnow
Ich bin durch die erste angezeigte Gleichung nach "Konstruieren des Modells" verwirrt. Können Sie erklären, woher das kommt? Es sieht für mich aus wie , also ist die innere Summe 1 für jedes , also die gesamte rechte Seite wird zu null. Ich bin sicher, ich vermisse etwas - können Sie die Überlegungen darlegen, wie Sie zu dieser Gleichung gekommen sind? iPr[Zich=EIN|Xich,θ]+Pr[Zich=B|Xich,θ]=1ich
DW