Was ist der Unterschied zwischen einem (dynamischen) Bayes-Netzwerk und einem HMM?

13

Ich habe gelesen, dass HMMs, Partikelfilter und Kalman-Filter Spezialfälle von dynamischen Bayes-Netzwerken sind. Ich kenne jedoch nur HMMs und sehe keinen Unterschied zu dynamischen Bayes-Netzwerken.

Könnte jemand bitte erklären?

Es wäre schön, wenn Ihre Antwort ähnlich wie die folgende aussehen könnte, aber für bayes Networks:

Versteckte Markov-Modelle

Ein Hidden Markov Model (HMM) ist ein 5-Tupel :λ=(S,Ö,EIN,B,Π)

  • S : Eine Menge von Zuständen (zB "Beginn des Phonems", "Mitte des Phonems", "Ende des Phonems")
  • Ö : Eine Reihe möglicher Beobachtungen (Audiosignale)
  • EINR|S|×|S| : Eine stochastische Matrix, die Wahrscheinlichkeiten , um vom Zustand zum Zustand .i j(einichj)ichj
  • BR|S|×|Ö| : Eine stochastische Matrix, die Wahrscheinlichkeiten liefert , um die Beobachtung in den Zustand zu bringen .k l(bkl)kl
  • ΠR|S| : Start der Erstverteilung in einem der Zustände.

Es wird normalerweise als gerichteter Graph angezeigt, wobei jeder Knoten einem Zustand und die Übergangswahrscheinlichkeiten an den Kanten angegeben sind.sS

Versteckte Markov-Modelle werden als "versteckt" bezeichnet, da der aktuelle Status ausgeblendet ist. Die Algorithmen müssen es aus den Beobachtungen und dem Modell selbst erraten. Sie heißen "Markov", denn für den nächsten Staat ist nur der aktuelle Staat von Bedeutung.

Für HMMs geben Sie eine feste Topologie an (Anzahl der Zustände, mögliche Kanten). Dann gibt es 3 mögliche Aufgaben

  • Bewertung : Wie wahrscheinlich ist es bei einem HMM , Beobachtungen zu erhalten (Forward-Algorithmus)o 1 , , o tλÖ1,,Öt
  • Decodierung : mit HMM und Beobachtungen , was ist die wahrscheinlichste Folge von Zuständen (Viterbi-Algorithmus)o 1 , , o t s 1 , , s tλÖ1,,Öts1,,st
  • Lernen : Lernen Sie : Baum-Welch-Algorithmus , der ein Spezialfall der Erwartungsmaximierung ist.EIN,B,Π

Bayes-Netzwerke

Bayes-Netzwerke sind gerichtete azyklische Graphen (DAGs) . Die Knoten repräsentieren zufällige Variablen . Für jedes gibt es eine Wahrscheinlichkeitsverteilung, die von den Eltern von abhängig ist :X X X XG=(X,E)XXXX

P(X|Eltern(X))

Es scheint zwei Aufgaben zu geben (bitte klären):

  • Folgerung : Ermitteln Sie bei bestimmten Variablen die wahrscheinlichsten Werte der anderen Variablen. Genaue Schlussfolgerung ist NP-schwer. Ungefähr können Sie MCMC verwenden.
  • Lernen : Wie Sie diese Verteilungen lernen, hängt vom genauen Problem ab ( Quelle ):

    • bekannte Struktur, vollständig beobachtbar: Maximum Likelihood Estimation (MLE)
    • bekannte Struktur, teilweise beobachtbar: Expectation Maximization (EM) oder Markov Chain Monte Carlo (MCMC)
    • unbekannte Struktur, vollständig beobachtbar: Suche im Modellraum
    • unbekannte Struktur, teilweise beobachtbar: EM + Suche im Modellraum

Dynamische Bayes-Netzwerke

Ich denke, dynamische Bayes-Netzwerke (DBNs) sind auch gerichtete probabilistische grafische Modelle. Die Variabilität scheint von dem sich mit der Zeit ändernden Netzwerk zu stammen. Es scheint mir jedoch, dass dies äquivalent ist, nur dasselbe Netzwerk zu kopieren und jeden Knoten zum Zeitpunkt mit jedem entsprechenden Knoten zum Zeitpunkt . Ist das der fallt + 1tt+1

Martin Thoma
quelle
2
1. Sie können auch die Topologie eines HMM lernen. 2. Wenn Sie Rückschlüsse auf BNs ziehen, können Sie nicht nur nach Schätzungen der maximalen Wahrscheinlichkeit fragen, sondern auch Stichproben aus den Verteilungen ziehen, die Wahrscheinlichkeiten abschätzen oder das tun, was Ihnen die Wahrscheinlichkeitstheorie sonst noch erlaubt. 3. Ein DBN ist nur eine BN, die im Laufe der Zeit kopiert wird, wobei einige (nicht notwendigerweise alle) Knoten von der Vergangenheit in die Zukunft verkettet sind. In diesem Sinne ist ein HMM ein einfacher DBN mit nur zwei Knoten in jeder Zeitscheibe und einem der über die Zeit verketteten Knoten.
KT.
Ich habe jemanden danach gefragt und er sagte: "HMMs sind nur Sonderfälle von dynamischen Bayes-Netzen, wobei jede Zeitscheibe eine latente Variable enthält, die von der vorherigen abhängt, um eine Markov-Kette zu ergeben, und eine Beobachtung von jeder latenten Variable abhängt. DBNs kann jede Struktur haben, die sich im Laufe der Zeit entwickelt. "
Ashley

Antworten:

1

Aus einer ähnlichen Kreuzvalidierungsfrage folgt @jerad Antwort:

HMMs sind nicht gleichbedeutend mit DBNs, sondern stellen einen Sonderfall von DBNs dar, bei denen der gesamte Zustand der Welt durch eine einzige versteckte Zustandsvariable dargestellt wird. Andere Modelle innerhalb des DBN-Frameworks verallgemeinern das grundlegende HMM und erlauben mehr versteckte Zustandsvariablen (siehe das zweite Papier oben für die vielen Varianten).

Schließlich sind DBNs nicht immer diskret. Beispielsweise können lineare Gaußsche Zustandsmodelle (Kalman-Filter) als kontinuierlich bewertete HMMs konzipiert werden, die häufig zum Verfolgen von Objekten im Raum verwendet werden.

Ich würde empfehlen, diese beiden hervorragenden Übersichtsartikel durchzusehen:

xboard
quelle