Einführungen in grafische Modelle beschreiben sie als "... eine Verbindung zwischen Graphentheorie und Wahrscheinlichkeitstheorie".
Ich verstehe den Teil der Wahrscheinlichkeitstheorie, habe aber Probleme zu verstehen, wo genau die Graphentheorie hineinpasst. Welche Erkenntnisse aus der Graphentheorie haben dazu beigetragen, unser Verständnis der Wahrscheinlichkeitsverteilungen und der Entscheidungsfindung unter Ungewissheit zu vertiefen?
Ich suche konkrete Beispiele, die über den offensichtlichen Gebrauch der graphentheoretischen Terminologie in PGMs hinausgehen, wie die Klassifizierung einer PGM als "Baum" oder "zweiteilig" oder "ungerichtet" usw.
In einigen Arbeiten wurde der Zusammenhang zwischen der einfachen Decodierung von Paritätsprüfcodes mit niedriger Dichte (die hervorragende Ergebnisse erzielen, wenn Sie sie als probablistischen Graphen betrachten und Loopy Belief Propagation anwenden) und dem Umfang des durch die Paritätsprüfmatrix gebildeten Graphen untersucht . Diese Verbindung zum Umfang reicht bis in die Zeit zurück, als LDPCs erfunden wurden [1], aber es gab weitere Arbeiten in den letzten zehn Jahren [2] [3], nachdem Mackay et al. [4] sie separat wiederentdeckten und ihre Eigenschaften feststellten .
Ich sehe oft Perlens Kommentar zur Konvergenzzeit der Glaubensausbreitung in Abhängigkeit vom Durchmesser des zitierten Graphen. Ich kenne jedoch keine Arbeit, die sich mit den Durchmessern von Diagrammen in Nicht-Baum-Diagrammen befasst und welche Auswirkungen dies hat.
quelle
Eine erfolgreiche Anwendung von Graph-Algorithmen auf probabilistische graphische Modelle ist der Chow-Liu-Algorithmus . Es löst das Problem, die optimale (Baum-) Graphstruktur zu finden, und basiert auf dem Maximum-Spanning-Tree- (MST-) Algorithmus.
Eine gemeinsame Wahrscheinlichkeit über ein grafisches Baummodell kann wie geschrieben werden: Wir können eine normalisierte log-Wahrscheinlichkeit wie folgt aufschreiben: wobei die wechselseitige Information zwischen und wenn die empirische maximale Wahrscheinlichkeit (ML) gegeben ist Verteilung, die zählt, wie oft sich ein Knoten im Zustand . Da der erste Term unabhängig von der Topologie
Die logarithmische Wahrscheinlichkeit wird maximiert, indem der maximale Gewichtsüberspannungsbaum berechnet wird, wobei die Kantengewichte die paarweisen gegenseitigen Informationsterme . Der maximale Gewichtsspannungsbaum kann unter Verwendung des Prim-Algorithmus und des Kruskal-Algorithmus ermittelt werden .ich( xs; xt| θs t)
quelle