Ich verstehe, dass HMMs (Hidden Markov Models) generative Modelle und CRF diskriminative Modelle sind. Ich verstehe auch, wie CRFs (Conditional Random Fields) entworfen und verwendet werden. Was ich nicht verstehe, ist, wie sie sich von HMM unterscheiden? Ich habe gelesen, dass wir im Fall von HMM unseren nächsten Zustand nur anhand des vorherigen Knotens, des aktuellen Knotens und der Übergangswahrscheinlichkeit modellieren können, aber im Fall von CRFs können wir dies tun und eine beliebige Anzahl von Knoten miteinander verbinden, um Abhängigkeiten zu bilden oder Zusammenhänge? Bin ich hier richtig
33
Antworten:
Aus McCallums Einführung in CNI :
quelle
"Bedingte Zufallsfelder können als sequenzielle Erweiterung des Maximum-Entropy-Modells verstanden werden". Dieser Satz stammt aus einem technischen Bericht über "Klassische probabilistische Modelle und bedingte Zufallsfelder".
Es ist wahrscheinlich die beste Lektüre für Themen wie HMM, CRF und Maximum Entropy.
PS: Abbildung 1 im Link gibt einen sehr guten Vergleich zwischen ihnen.
Grüße,
quelle
Als Randnotiz: Ich bitte Sie, diese (unvollständige) Liste beizubehalten, damit interessierte Benutzer über eine leicht zugängliche Ressource verfügen. Der Status Quo erfordert immer noch, dass Einzelpersonen zahlreiche Papiere und / oder lange technische Berichte untersuchen, um Antworten im Zusammenhang mit CNI und HMM zu finden.
Neben den anderen, bereits guten Antworten möchte ich auf die Besonderheiten hinweisen, die ich am bemerkenswertesten finde:
[1] Sutton, Charles; McCallum, Andrew (2010), "Eine Einführung in bedingte Zufallsfelder"
quelle