Bei Textdokumenten können die Merkmalsvektoren unter allen Standarddarstellungen (Wortkiste oder TF-IDF usw.) sehr hochdimensional und dünn sein. Das Messen von Abständen direkt unter einer solchen Darstellung ist möglicherweise nicht zuverlässig, da bekannt ist, dass in sehr großen Dimensionen der Abstand zwischen zwei beliebigen Punkten gleich aussieht. Eine Möglichkeit, damit umzugehen, besteht darin, die Datendimensionalität mithilfe von PCA oder LSA ( Latent Semantic Analysis , auch als Latent Semantic Indexing bezeichnet ) zu reduzieren und anschließend die Abstände im neuen Raum zu messen. Die Verwendung von so etwas wie LSA gegenüber PCA ist vorteilhaft, da es eine aussagekräftige Darstellung im Sinne von "semantischen Konzepten" abgesehen von der Messung von Entfernungen in einem Raum mit niedrigeren Dimensionen geben kann.
Das Vergleichen von Dokumenten auf der Grundlage der Wahrscheinlichkeitsverteilungen erfolgt normalerweise, indem zuerst die Themenverteilung jedes Dokuments berechnet wird (unter Verwendung einer latenten Dirichlet-Zuordnung ) und dann eine Art von Divergenz (z. B. KL-Divergenz) zwischen den Themenverteilungen von Dokumentenpaaren berechnet wird. In gewisser Weise ist es tatsächlich so, als würde man zuerst LSA durchführen und dann die Abstände im LSA-Raum unter Verwendung der KL-Divergenz zwischen den Vektoren messen (anstelle der Cosinus-Ähnlichkeit).
KL-Divergenz ist ein Abstandsmaß für den Vergleich von Verteilungen. Daher ist es möglicherweise vorzuziehen, wenn die Dokumentendarstellung in Form einer Verteilung erfolgt (was häufig tatsächlich der Fall ist - z. B. Dokumente, die wie in LDA als Verteilung über Themen dargestellt werden). Beachten Sie auch, dass bei einer solchen Darstellung die Einträge im Merkmalsvektor eins ergeben würden (da Sie das Dokument im Grunde genommen als eine Verteilung über Themen oder semantische Konzepte behandeln).
Vielen Dank. Müssen Sie bei der LDA die Themen im Voraus kennen? In unserem Fall wissen wir nicht, zu welchem Thema jedes Dokument gehört, und wir werden das Ähnlichkeitsmaß verwenden, um Clustering (EMG-Means oder GAAC) durchzuführen
@Joel: Nein, LDA geht nicht davon aus, dass Sie die Themen für jedes Dokument vorher kennen. Übrigens, um klar zu sein, repräsentiert LDA jedes Dokument als eine Mischung von Themen, nicht nur nach einem einzigen Thema. So trägt jedes Thema zu einem Bruchteil in den Dokumenten bei (und die einzelnen Brüche summieren sich zu 1). Grundsätzlich geht LDA davon aus, dass jedes Wort im Dokument von einem bestimmten Thema generiert wird.
Ebenholz1
@ebony - danke! Müssen Sie bei der LDA die Anzahl der diskreten Themen kennen, wenn die Gefahr besteht, dass Sie die Frage umformulieren und mich wiederholen?
Möglicherweise möchten Sie diesen Onlinedienst auf Ähnlichkeit mit Kosinusdokumenten testen: http://www.scurtu.it/documentSimilarity.html
quelle