Ich versuche, EM zu verstehen und Parameter dieses Modells mit dieser Technik abzuleiten, habe aber Probleme zu verstehen, wie ich anfangen soll:
Ich habe also ein gewichtetes lineares Regressionsmodell wie folgt, wobei ich Beobachtungen und die entsprechenden Beobachtungen . Das Modell der Beziehung zwischen und ist ein gewichtetes lineares Regressionsmodell, und die Verteilungsannahmen lauten wie folgt:Y = ( y 1 , y 2 . . . . Y n ) X Y
β∼N(0,Σβ)wi∼G(a,b)
Hier sind die Regressionsparameter und das Modell ermöglicht ungleiche Varianzen, indem die Antwortvariablen individuelle Gewichte für die Varianz haben. Mein Ziel ist es, die wahrscheinlichste lineare Beziehung zu finden, die durch die Parameter .β
Daher kann ich das Log-Posterior wie folgt schreiben:
Jetzt habe ich versucht, EM zu verstehen und bin mir nicht sicher, ob mein Verständnis noch vollständig ist. Um die Parameter abzuschätzen, gehe ich zunächst von der Erwartung der log-posterioren Verteilung in Bezug auf die latenten / versteckten Parameter, die in meinem Fall und . Dieser erforderliche erwartete Wert ist also:
Ich habe jedoch keine Ahnung, wie ich von hier aus vorgehen soll, um diese Erwartung zu berechnen. Würde mich sehr über Vorschläge freuen, was der nächste Schritt sein sollte. Ich suche nicht jemanden, der mir alle notwendigen Dinge ableitet, sondern nur einen Anstoß in die richtige Richtung, was ich in den nächsten Schritten lösen soll.
Antworten:
Lassen Sie mich zunächst an die Grundlagen des EM-Algorithmus erinnern. Bei der Suche nach der Maximum-Likelihood-Schätzung einer Wahrscheinlichkeit der Form fährt der Algorithmus fort, indem er iterativ (M) erwartete (E) vollständige Log-Wahrscheinlichkeiten maximiert, die bei der Maximierung der Ergebnisse (in ) bei Iteration die Funktion Der Algorithmus muss daher zunächst die latente Variable und ihre bedingte Verteilung identifizieren .
In Ihrem Fall scheint die latente Variable aus den , während der interessierende Parameter . Wenn Sie sowohl als auch als latente Variablen verarbeiten, müssen keine Parameter mehr optimiert werden. Dies bedeutet jedoch auch, dass der Prior on nicht verwendet wird.ϖ wi β β ϖ β
Wenn wir den Fall von genauer , ist seine bedingte Verteilung gegeben durch das als 1/2 Verteilung.wi
Die abgeschlossene Log-Wahrscheinlichkeit ist der Teil, der davon abhängt on vereinfacht sich als und die Funktion ist proportional zu Maximieren dieser Funktion in entspricht einer gewichteten linearen Regression mit Gewichten
quelle